Generative KI für KMU

Die KI Werkstatt hat ein Vorgehensmodell zur Einführung generativer KI erstellt und unterstützt KMU bei der Identifikation, betriebswirtschaftlichen Bewertung, Auswahl einer technischen Lösung und Pilotierung von Use Cases generativer KI.

Titel des Projektes:

Generative KI für KMU

Ansprechpartner:

Prof. Dr. Stefan Wittenberg, Prof. Dr. Christina Kratsch, Prof. Dr. Erik Rodner, Prof. Dr. Andre Beinrucker, Kilian Sanchez Holguin, Claudia Tyborski, Dr. Nina Siedler, Isabel Win, Marc Naumann

Zur HTW Projekt-Seite
No items found.

Gen KI-Sprechstunde für Unternehmen

Haben Sie Fragen zur Einführung generativer KI in Ihrem Unternehmen?
Wir bieten Ihnen eine offene Sprechstunde der KI-Werkstatt informieren.

wann:  jeden Freitag, 13-14 Uhr per Anmeldung unter https://calendly.com/stefan-wittenberg/ki-sprechstunde
wo: per Zoom unter https://htw-berlin.zoom-x.de/j/61221380518

wer: Prof. Dr. Stefan Wittenberg und Prof. Dr. Andre Beinrucker

Vorgehensmodell zur Einführung generativer KI

Die KI-Werkstatt hat Vorgehensmodell für den Einsatz generativer KI entwickelt, mit Unternehmen aus Berlin validiert
und iterativ weiterentwickelt. Das Pilotprojekt wurde mit den Unternehmen Finetech GmbH & Co. KG und der NBB Netzgesellschaft Berlin-Brandenburg mbH & Co. KG (Gasag Gruppe) durchgeführt.

Das Vorgehensmodell besteht aus vier Phasen mit einzelnen Unterphasen:

1. Discovering-Phase:

  • Datengetriebene Discovery: Identifikation erster Use-Cases auf Basis von Daten, ohne direkt Mitarbeitende einzubinden.
  • Top-Down-Discovery: Das Management priorisiert die identifizierten Use-Cases nach strategischer Relevanz.
  • Bottom-Up-Discovery: Mitarbeiter-Workshops zur weiteren Identifikation und Verfeinerung der Use-Cases.

2. Scoping-Phase:

  • Priorisierung der Use-Cases: Analyse von Kosten und Nutzen, Bewertung des Aufwand-Nutzen-Verhältnisses und Zuordnung zu strategischen Zielen.
  • Identifikation von Showstoppern: Prüfung auf regulatorische, technische oder organisatorische Hürden, die eine Umsetzung verhindern könnten.
  • Use-Case-Konzeption: Detaillierte Ausarbeitung der priorisierten Use-Cases mit Zielgrößen, Verantwortlichkeiten und grobem Umsetzungsplan.

3. Piloting-Phase:

  • Technologie- und Anbieterauswahl: Auswahl geeigneter Tools, Plattformen oder Partner für die Umsetzung des Piloten.
  • Agile Pilotenentwicklung: Umsetzung des Use-Cases in einem iterativen Vorgehen, eng begleitet durch das Projektteam und erste Anwender.
  • Rollout im Pilotbereich: Einführung des Piloten in einem klar abgegrenzten Unternehmensbereich, inkl. Begleitmaßnahmen zur Erfolgsmessung.

4. Scaling-Phase:

  • Strategische Skalierung: Ableitung einer unternehmensweiten KI-Strategie basierend auf den Erkenntnissen aus dem Piloten.
  • Compliance und IT-Security: Sicherstellung von Datenschutz, rechtlicher Konformität und sicherer Systemintegration im gesamten Unternehmen.
  • Organisation und Umsetzung: Rollout auf weitere Unternehmensbereiche, Anpassung von Prozessen und Strukturen, Verstetigung durch Governance.

Schulungs- und Change-Maßnahmen:
Diese Maßnahmen begleiten alle Phasen und beginnen mit der Schulung der Geschäftsführung, um sie mit den Möglichkeiten und Grenzen der KI vertraut zu machen. Anschließend werden Führungskräfte und der Betriebsrat einbezogen. Es wird ein abteilungsübergreifendes KI-Team aufgebaut, und durch Mitarbeiterveranstaltungen sowie den KI-Marktplatz wird für eine offene Kommunikation und Partizipation gesorgt. Vor dem flächendeckenden Rollout findet schließlich eine verpflichtende Mitarbeiterschulung statt, um alle auf den neuesten Stand zu bringen.

-> Die KI-Werkstatt unterstützt schwerpunktmäßig in den Phasen Discovering, Scoping und Piloting. Hier freuen wir uns über die Vermittlung von Studierenden für Abschlussarbeiten und Pratika. Auf Anfrage stehen wir Unternehmen im Rahmen von Auftragsforschungsprojekten auch unterstützend zur Verfügung.

Vorgehensmodell zur Einführung generativer KI (Wittenberg/Kratsch/Rodner/Beinrucker)

Im Kern der Identifikation von Use-Cases für generative KI steht die Verbindung eines Top-Down mit einem Bottom-Up-Ansatz.

Im Top-Down Ansatz wird die Managementperspektive eingenommen und es werden aus Sicht des Geschäftsmodelles und einer datenbasierte Analyse mögliche Use-Cases abgeleitet. Die Top-Down-Sicht wird um eine Bottom-Up-Sicht ergänzt, in der aus Mitarbeitendenperspektive konkrete Optimierungsideen aus dem Tagesgeschäft abgeleitet werden. In einer sich anschließenden Konsolidierung und Priorisierung entsteht im Anschluss ein Use-Case-Backlog für das Unternehmen.

Hybrider Ansatz als Verknüpfung von Top-Down und Bottom-Up-Ansatz
Hybrider Ansatz zur Identifikation von Use-Cases als Verknüpfung von Top-Down und Bottom-Up-Vorgehen

(1) https://arxiv.org/abs/2303.10130

Das Projekt erfolgt in enger Kooperation mit dem Projekt Generative KI in der Berliner Unternehmenslandschaft (BerGPT)

und dem Projekt Digital +

Englisch Version:

Implementation Model for Introducing Generative AI in SMEs

1. Discovering Phase:

  • Data-Driven Discovery: Identification of initial use cases based on data, without directly involving employees.
  • Top-Down Discovery: Management prioritizes the identified use cases according to strategic relevance.
  • Bottom-Up Discovery: Employee workshops for further identification and refinement of use cases.

2. Scoping Phase:

  • Use Case Prioritization: Cost-benefit analysis, assessment of effort-benefit ratio, and alignment with strategic goals.
  • Identification of Showstoppers: Examination of regulatory, technical, or organizational obstacles that could hinder implementation.
  • Use Case Design: Detailed elaboration of the prioritized use cases with target metrics, responsibilities, and a rough implementation plan.

3. Piloting Phase:

  • Technology and Vendor Selection: Choosing suitable tools, platforms, or partners for the pilot implementation.
  • Agile Pilot Development: Iterative implementation of the use case, closely supported by the project team and initial users.
  • Pilot Rollout: Introduction of the pilot in a clearly defined company area, including accompanying success measurement activities.

4. Scaling Phase:

  • Strategic Scaling: Development of a company-wide AI strategy based on insights gained from the pilot.
  • Compliance and IT Security: Ensuring data protection, legal compliance, and secure system integration across the company.
  • Organization and Implementation: Rollout to other business units, adjustment of processes and structures, institutionalization through governance.

Training and Change Management Measures:
These measures accompany all phases, beginning with training for the executive management to familiarize them with the opportunities and limitations of AI. Subsequently, managers and the works council are involved. A cross-departmental AI team is formed, and open communication and participation are promoted through employee events and an AI marketplace. Before company-wide rollout, mandatory employee training is conducted to bring everyone up to speed.

Testimonials

Die Zusammenarbeit mit der KI-Werkstatt bereichert meine Lehre und die Projekte meiner Studierenden in besonderem Maße. Insbesondere der Lehrbaustein „Grundlagen der Künstlichen Intelligenz“ vermittelt nicht nur fundiertes Wissen über Funktionsweisen und Herausforderungen von KI, sondern regt auch zur kritischen Reflexion an. Die Infrastruktur der KI-Werkstatt ermöglicht es uns, innovative Projekte effizient umzusetzen – sei es im Rahmen einer Kooperation mit dem Staatlichen Museum Schwerin oder als Aussteller auf der Campus Exhibition des Ars Electronica Festivals, an dem wir als Studiengang seit vier Jahren teilnehmen. Die Unterstützung durch die KI-Werkstatt ist äußerst inspirierend und von großer fachlicher Kompetenz geprägt – ein echter Motor für Lehre und Forschung.

Prof. Andreas Ingerl

Fachbereich 5
Ohne die KI-Werkstatt hätte ich den Einstieg in Machine Learning nicht geschafft. Während meiner Bachelorarbeit stand ich vor der Herausforderung, einen CNN-Klassifikator für endoskopische Bilder zu trainieren, doch mein eigener Rechner war dafür völlig unzureichend und externe Anbieter wie Colab wären für mich nicht finanzierbar gewesen. Die Infrastruktur der KI-Werkstatt hat es mir ermöglicht, mit GPU-Ressourcen zu arbeiten, meine Experimente frei durchzuführen und dabei wertvolle Praxiserfahrung zu sammeln. Dadurch wurde meine Bachelorarbeit überhaupt erst realisierbar und gleichzeitig der Grundstein gelegt, dass ich heute aktiv im Bereich Machine Learning tätig bin.

Abdelrahman Elsharkawi

Fachbereich 2
Wir hatten eine Blockveranstaltung, in der unsere Studierenden Ideen für den Einsatz von KI in der Immobilienwirtschaft entwickeln sollten. Wir haben Ricardo und Kollegen in die Blockveranstaltung eingeladen und die Mitarbeiter der KI-Werkstatt haben dann gemeinsam mit den Studierenden über die Grundlagen und Funktionsweise von KI gesprochen. Die Ergebnisse waren sehr gut - eine Ursache dafür war sicherlich, dass die Studierenden durch den Input der KI-Werkstatt mehr über die Grenzen von KI erfahren haben und den Einsatz so besser einschätzen konnten. Die Lehrinhalte haben tolle Impulse gegeben, die es auch nicht-technischen Studiengängen erlauben, einen Einblick in die Grundlagen von KI zu erlangen.

Prof. Dr. Florian Koch

Fachbereich 3
In der Hochschullehre stehen Lehrinhalte und Lernformen vor einer Transformation durch Maschinelles Lernen oder Künstliche Intelligenz. Die KI-Werkstatt macht diese komplexen Begriffe erfahrbar und vermittelt die Prinzipien von KI-Modellen auf eine leichte, verständliche und spielerische Weise. In meinem Seminar zum Thema „Bildgenerierende Künstliche Intelligenz” waren die Workshops der KI-Werkstatt zum Projektstart eine besonders wichtige und bereichernde Erfahrung für die Studierenden. Sie halfen dabei, die theoretischen Grundlagen mit praktischen Anwendungen zu verknüpfen und sensibilisierten die Teilnehmenden für die ethischen Fragestellungen, die mit dem Einsatz von KI einhergehen. Insgesamt tragen diese Workshops dazu bei, dass Studierende nicht nur als Nutzer*innen, sondern auch als kritische und reflektierte Gestalter*innen der digitalen Zukunft agieren können.

Prof. Henrik Spohler

Fachbereich 5
In meiner Promotion beschäftige ich mich mit der Frage, wie große KI-Modelle in spezialisierte Anwendungsbereiche wie Mikroskopie in der Biologie oder Robotik übertragen werden können. Eine der größten Herausforderungen ist dabei, diese sehr rechenintensiven Modelle auf ihre Zuverlässigkeit und Robustheit zu testen. Dank der Infrastruktur der KI_Werkstatt kann ich moderne Vision-Language-Models auf leistungsstarken Multi-GPU-Systemen evaluieren und teilweise sogar weiter finetunen. Diese Experimente wären ohne die bereitgestellte Hardware überhaupt nicht realisierbar. So gewinne ich wertvolle Erkenntnisse darüber, wie sich große Modelle mit wenig Daten anpassen lassen und wo ihre Stärken und Schwächen liegen. Die KI_Werkstatt trägt damit entscheidend dazu bei, dass ich meine Forschung deutlich schneller und fundierter voranbringen kann.

Mario Koddenbrock

Fachbereich 2
Da die private Hardware der Studierenden nicht für alle für die Bachelorarbeit gewünschten Experimente ausreichend war, machte ich Sie auf die Möglichkeiten der KI-Werkstatt aufmerksam. Die erste Idee, einen laptop zu leihen, war aufgrund mangelnder Geräte nicht zu realisieren. Der zweite (viel bessere) Ansatz, das JupyterHub zu nutzen, war überraschenderweise völlig problemlos. (Das kenne ich auch anders.) Zukünftig würde ich deshalb sehr gerne auch innerhalb des Masterstudiengangs QFDS einzelne kleinere Projekte innerhalb eines Kurses auf dem JupyterHub realisieren lassen und hoffe sehr, dass das auch weiterhin möglich sein wird.

Prof. Dr. Sunna Torge

Fachbereich 4
Bei meiner Arbeit mit Vision-Language-Models (VLMs) für meine Bachelorarbeit stand ich vor der Herausforderung, dass diese Modelle durch die Kombination von Bild- und Texteingaben extrem rechenintensiv sind. Auf meinem Laptop dauerten die Benchmarks mit Datensätzen von bis zu 50.000 Bildern schlicht zu lange, um praktikabel zu sein. Durch die Unterstützung der KI-Werkstatt konnte ich meine Codebasis mit wenigen Integrationsschritten auf den GPU-Cluster übertragen. Die leistungsstarke Infrastruktur ermöglichte es mir, die Laufzeiten meiner Benchmarks drastisch zu verkürzen und dadurch viel effizienter zu arbeiten. So konnte ich meine Experimente in einem realistischen Zeitrahmen durchführen und wertvolle Ergebnisse erzielen, die auf meinen persönlichen Geräten kaum möglich gewesen wären.

Rudolf Hoffmann

Fachbereich 2

Starte dein KI-Projekt mit Uns

Mit der KI-Werkstatt schafft die HTW Berlin einen Ort für das gemeinsame Forschen, Lehren und Anwenden von KI-Technologie auf aktuelle Praxisprobleme. Ziel ist u.a. die Schaffung einer hochschulweiten Infrastruktur, welche die Verwendung und Weiterentwicklung aktueller KI-Algorithmen auf höchstem wissenschaftlichem Niveau ermöglicht, sowie die Entwicklung eines KI-Modulbaukastens um die KI-Lehre interdisziplinär fördern.

Kontaktiere Uns