Was ist Generative AI? Generative Artificial Intelligence bezeichnet Modelle der Künstlichen Intelligenz (KI), die in der Lage sind, Texte, Bilder, Videos, Daten oder Töne jeder Art zu erzeugen. Mit dem Erfolg von ChatGPT ist die generative KI heute in den Alltag eingezogen.
Wie funktioniert die Technik dahinter? Und welches Potenzial bietet sie, nicht nur im Büroalltag, sondern auch darüber hinaus?
Inhaltsverzeichnis
Einführung: Was ist Generative AI?
Die Idee einer künstlichen Intelligenz, die dem Menschen in nichts nachsteht, ist Jahrhunderte alt. Mit dem Aufkommen des Computers in den 50er und 60er Jahren wurde aus dem Traum erstmals eine Vision. Und damit begann auch die Idee einer Generative AI Form anzunehmen, also einer künstlichen Intelligenz, die selbstständig Sprache, Bild oder Töne erschaffen („generating“) kann.
1966 entwickelte Joseph Weizenbaum ELIZA, ein Computerprogramm, bei dem erstmals ein Mensch mit einem Computer kommunizieren konnte und dieser auf die Eingaben individuell einging. Verglichen mit ChatGPT wirkt das Chatprogramm heute so rudimentär wie ein Wählscheibentelefon im Gegensatz zum Smartphone – aber der Grundstein war gelegt.
Während die computergestützte Verarbeitung von natürlicher Sprache (natural language processing – NLP) in Folgejahrzehnten immer weiter vorangetrieben wurde, gelang mit den sogenannten Large Language Models (LLM) 2017 der Durchbruch in der Generative AI.
Denn ab Mitte der 2010er wurden Computer erstmals schnell und Algorithmen effizient genug darin, riesige Datenmengen zu verarbeiten, sodass es praktisch möglich war, auf die für eine generative KI nötigen Kapazitäten effektiv zurückzugreifen. Im August 2017 stellte Google erstmals das Transformer-Modell als eines dieser LLM vor im Artikel „Transformer: A Novel Neural Network Architecture for Language Understanding“ und dem dazugehörigen Paper „Attention is all you need“. Zur Funktionsweise eines Transformers weiter unten mehr.
Der Artikel legte den Grundstein für viele der heutigen bekannten und häufig genutzten Generative AIs: Der Chatbot ChatGPT basiert auf dem General Pre-Trained Transformer GPT, der 2018 in seiner ersten Version GPT-1 erschien und den es in der bisher leistungsfähigsten Version 4o (bzw. Turbo) gibt.
Generative AI (GPT ist bei weitem nicht die einzige) zeichnen sich dadurch aus, dass sie in der Lage sind, Strukturen und Muster in Daten zu erkennen und aus ihnen auf Befehl (bei Nutzereingaben auch „Prompt“ genannt) sinnvolle und völlig neue Daten zu erzeugen (Bilder, Töne, Sprache usw.), die so nicht in den Ursprungsdaten vorkommen. Dabei hängt die Form der neu erzeugten Daten von den Trainingsdaten ab, mit denen die KI vorher trainiert wurde – KIs, die mit Texten trainiert wurden, erzeugen als Output Text (es gibt Ansätze, die dies aufbrechen, dazu später mehr), KIs, die mit medizinischen Texten trainiert wurden, können medizinische Texte sinnvoll kreieren.
Wenngleich Transformer die bisher erfolgreichste Kategorie an LLMs sind, sind sie nicht die einzigen und nicht die ersten. Neben Transformern gibt es auch noch andere Generative AI-Ansätze:
- Diffusion Models: Diese Technologie kann sehr gut Bilder und Videos aus Prompts erzeugen, bekannteste Modelle sind hier Midjourney oder Stable Diffusion. Auch DALL-E nutzt zur Bilderzeugung Diffusion, aber in Kombination mit Transformern (ChatGPT)
- Generative Adversarial Networks: Auch GAN abgekürzt, sind sie älter als Transformer und weniger universal einsetzbar. Sie sind dort gut, wo Variationen von bestehenden Medien (Bilder, Töne, Text) erzeugt werden sollen. Ein Beispiel dafür sind die vor einigen Jahren beliebten Smartphone-Apps, bei denen man das eigene Bild aufnehmen kann und die KI erzeugt Varianten, wie man in 20 oder 30 Jahren aussieht. Sie sind weniger gut geeignet völlig neue Bilder aus dem Nichts zu erzeugen.
- Variational Autoencoders (VAEs): Ähnlich wie GAN sind auch VAEs gut darin, aus Ausgangsdaten Varianten zu erzeugen. Sie können Texte, Bilder, Töne oder andere Datenformen aus bestehenden Datensätzen neu erschaffen. Sie können aber nicht nur für die Erzeugung von neuartigem Material eingesetzt werden. So forscht Spotify an VAEs, um seine Recommendation-Algorithmen zu verbessern.
- Language Models: Die Überkategorie zu LLMs: Nicht jedes Language Model muss Large sein. Kleine Modelle können für Spezialzwecke trainiert werden, zum Beispiel zur Spracherkennung, Übersetzung, Handschrifterkennung, Grammatikkorrektur usw. Es gibt verschiedene Technologien innerhalb der Language Models, Transformer gehören dazu.
- Flow Models: Sie können sehr gut komplexe, große Ursprungsdaten modellieren, das heißt aus einer Reihe an Inputs eine Reihe an ähnlichen Outputs generieren (zum Beispiel interpolieren). Sie sind nicht gut darin, Daten in völlig neue Zusammenhänge zu bringen.
- Neural Radiance Fields (NeRF): Mit dieser Technologie lassen sich 3D-Ansichten aus 2D-Daten
- Multimodal Models: Diese kombinieren verschiedene Ansätze von Generative AI, zum Beispiel Text und Bild (zum Beispiel GPT4)
Foundation Models
Large Language Models wie GPT werden auch als Foundation Models bezeichnet. Während viele KI bisher vor allem Spezialanwendungen waren und für einen ganz bestimmten Zweck programmiert und entwickelt werden, sind Modelle wie GPT ohne einen bestimmten Einsatzzweck trainiert – sie können im Gegenteil als Basis oder Fundament dienen, um daraus spezialisierte KI zu erschaffen. Sie sind damit eine Umkehr der bisherigen Art, KIs zu programmieren.
Das hat viele Vorteile: Kleinere KI-Modelle sind oft arbeitsaufwendig im Training, da Daten im Vorfeld von Menschen sortiert, geordnet und gelabelt werden müssen. Foundation Models lernen eigenständig aus riesigen Mengen an selektierten aber unsortierten Trainingsdaten und können im Nachhinein vom Menschen (oder Computern) auf spezielle Aufgaben feingetunt werden (zum Beispiel: reinforcement learning from human feedback – RLHF), ein Prozess, der oft weniger Zeit beansprucht. Außerdem wird die enorme Rechenpower, die zum Trainieren einer KI oft nötig ist, an das Foundation Model ausgelagert – was denen zunutze kommt, die nachher auf das Foundation Model aufbauen wollen. Denn der Betrieb eines Foundation Models braucht weitaus weniger Ressourcen. Aus diesem Grund existieren auch sogenannte lokale LLMs – downloadbare, vortrainierte Versionen (zum Beispiel Llama vom Meta-Konzern), die ohne Cloudanschluss funktionieren.
OpenAI (der Macher von ChatGPT) hat etwa einen eigenen Store eröffnet, der es ermöglicht, auf für bestimmte Zwecke trainierte Versionen von ChatGPT von anderen Softwareunternehmen zuzugreifen. Beispiele: PerplexityAI ist eine Version, die nicht nur Text ausgibt, sondern auch die Internet-Quellen in Form von Links darstellt, die zur Eingabe passen. So können Nutzer:innen gleich die Ergebnisse überprüfen oder in die weitere Recherche einsteigen.
Foundation Models zeichnen sich durch einen enormen Umfang aus, der es überhaupt erst ermöglicht, dass sie als Basis für alle möglichen Anwendungen dienen können. So nutzt GPT-4 mehr als 100 Billionen Parameter, die seine Funktion definieren. Ein Parameter ist dabei ein Wert, der aufgrund der Trainingsdaten festgelegt wird und Teil des gesamten neuronalen Netzes ist, auf dem das Modell basiert. Dieser Parameter lernt aus einem noch viel größeren Trainingsdatensatz (in neuesten Modellen weit über 100 Terabyte).
Wie funktioniert eine Generative AI?
Jede KI im Bereich des Machine Learning nutzt den Ansatz „Lernen aus Daten“. Aus einem großen Set an Daten (Bilder, Texte, Audio …) lernt die KI Muster zu abstrahieren, die das generelle Konzept eines Datenpunkts repräsentieren.
Das ist ähnlich wie bei uns Menschen: Auch wir haben abstrakte Konzepte von Dingen im Kopf und ordnen echte Erfahrungen diesen zu. Wir können einen Hund erkennen, weil wir wissen, was einen Hund ausmacht, nicht, weil es irgendwo auf der Welt den „Musterhund“ gibt, der das maximale Maß an „Hundigkeit“ besitzt und von dem aus wir alle Hundevarianten ableiten. Dieses Konzept wird in der KI auch als der „Latent Space“ bezeichnet. Er bezeichnet den Raum aller möglichen, naheliegenden Varianten, aus denen Ergebnisse konstruiert werden können. (Während der eine bei „Hund“ an „Lassie“ oder der Nächste an „Rex“ oder Nachbars „Fifi“ denkt, wird den wenigsten einfallen, dass Loren in Bergbauminen auch als Hund oder Hunt bezeichnet werden).
Hat die KI einmal diese Muster abstrahiert und gelernt, kann sie diese sehr schnell replizieren, weil alle nötigen Verbindungen schon da sind, wie in einem menschlichen Gehirn die Verknüpfung der Neuronen. Das Trainieren der KI ist arbeits- und rechenintensiv, ihr Betrieb selbst nicht mehr so sehr (auch wenn hier die KI von leistungsfähigeren Systemen trotzdem noch enorm profitiert).
Wie die generative KI genau funktioniert, schauen wir uns am Beispiel eines Transformers an, weil dieses Modell das aktuell wichtigste und leistungsfähigste bei Sprachverarbeitung ist.
Beispiele für Generative AI
Mit dem Erfolg von der KI in den vergangenen Jahren und besonders dem Aufkommen von effizienten Technologien für Generative AI wächst die Zahl an Diensten und Modellen extrem an. Ausgewählte Beispiele:
- Sprache
- (Chat)GPT: Das wohl bekannteste und mächtigste Modell ist heute in der Version 4 omni öffentlich verfügbar. Mit der Integration von DALL-E kann es neben Texten auch Bilder verarbeiten. Der Chatbot ChatGPT ist neben der eigenen Webseite auch Teil des Microsoft Copilot und damit künftig integraler Bestandteil von Windows.
- Llama: Das LLM vom Meta-Konzern beruht auf 70 Milliarden Parametern und ist damit kleiner als das von GPT, steht dafür aber als Open-Source-Version zur Verfügung.
- Claude: Ein Sprachmodell, das auf eine eigene „Verfassung“ zum Feintuning zurückgreift
- Mistral: Ein weiteres leistungsfähiges LLM aus Frankreich: https://chat.mistral.ai
- Gemini: Googles Variante
- Suche
- Perplexity
- SearchGPT
- Bild
- Midjourney: Es ist ein Diffusion-Model, das auf der Arbeit des gleichnamigen US-amerikanischen Instituts Es kann nur über das Kommunikationstool Discord genutzt werden.
- DALL-E: Ein weiteres Produkt von OpenAI. Das Bildgenerations-Modell ist mittlerweile in ChatGPT integriert und kann von allen zahlenden ChatGPT-Kund:innen genutzt werden.
- Stable Diffusion: Ein weiteres Diffusion-Model, das im Gegensatz zu den beiden vorhergenannten jedoch vollständig Open-Source Das Modell lässt sich damit auf eigener Hardware außerhalb einer Cloud betreiben und nach den eigenen Bedürfnissen erweitern. Es gibt aber auch Online-Dienste, die das Tool nutzen.
- Adobe Firefly
- Video
- Sora: Die OpenAI-Video-KI, bisher noch nicht vür die breite Öffentlichkeit verfügbar
- Synthesia: Die KI erlaubt es, Texteingaben von Avataren (in fotorealistischer Qualität inklusive Gestik und Mimik) in verschiedenen Sprachen vorlesen zu lassen. Das kann zum Beispiel für Trainingsvideos genutzt werden.
- Runway: Das Projekt ermöglicht es, Bilder zu animieren, sodass sich bestimmte Objekte darin bewegen, oder auch Kurzclips aus Textprompts zu gestalten.
- Sora: Die OpenAI-Video-KI, bisher noch nicht vür die breite Öffentlichkeit verfügbar
- Daten
- Eine wichtige Funktion von KI ist es, neue Daten zu generieren, um damit sich selbst oder andere KI zu trainieren. Denn oftmals stehen Anwender:innen nicht genügend Real-Daten zur Verfügung, um daraus eine KI mit ausreichend niedriger Fehlerrate zu programmieren. Neue Daten auf Basis von bestehenden zu kreieren erweitert die Möglichkeiten.
- Code
- Github Copilot: Der Github Copilot ist eine Anpassung von GPT an die Coding-Plattform, ein Projekt von Microsoft, das sowohl Teilhaber bei OpenAI ist, als auch Eigner von Github.
- Auch ChatGPT kann Code erzeugen, bis hin zu einfachen Apps.
- Audio
- Auch im Audiobereich gibt es eine Reihe an KI, die Musikstücke basierend auf Textinputs zusammenstellen können. Dazu gehören etwa MusicGen, MusicLM, Loudly.
- Suno AI ist in der Lage, aus Textprompts ganze Musikstücke inklusive gesungenem Text in allen möglichen Musikrichtungen zu generieren.
- Elevenlabs sorgt für eine natürliche Sprachausgabe und ist in der Lage, echte Stimmen zu klonen
- NotebookLM ermöglicht es, Podcasts aus Notizen/Wissen/Fakten-Daten zu erstellen
Mittlerweile gibt es eine kaum überblickbare Menge an Modellen, Technologien und Architekturen. Einen Überblick, nicht nur über LLM, sondern auch viele andere KIs, bietet die Open-Source Community Huggingface.
Vier Beispiele für Generative-AI-Anwendungsgebiete außerhalb des Büros:
In der Office-Umgebung haben sich Generative AI heute bereits sehr stark verbreitet. Sie verfassen n Reden, E-Mails, Reports, durchforsten Dokumenten, fassen Meetings zusammen, bearbeiten Bilder, brainstormen neue Ideen – die Möglichkeiten sind endlos. Aber auch außerhalb der rein organisatorischen und kreativen Arbeit kommen generative KI zunehmend in High-Tech-Umgebungen zum Einsatz:
- Medizin: Mit der AlphaFold-KI stellt Google einen Transformer vor, der in der Lage ist, aus einer Sequenz an Aminosäuren die Form des Proteins vorherzusagen. Das kann dabei helfen, neue Proteine und damit Medikamente zu finden. Das ist nur eines vieler möglicher Anwendungsgebiete.
- Verarbeitende Industrie: Es gibt eine große Bandbreite an Anwendungsfällen in der Industrie – so nutzt der Stahlhersteller US-Steel eine Generative AI, um Wartungsarbeiten zu beschleunigen, indem sie durch Datenanalyse bei der Bestellung von Ersatzteilen Prozesse beschleunigt oder die oft komplexen Informationsquellen (Dokumentationen, Tabellen, Handbücher etc.) durchsucht und schnell die wichtigen Informationen zusammenfasst.
- Automotive: Mercedes experimentiert gerade daran, Generative AI zu nutzen, um einen Sprachassistenten für die Sprachausgabe im Auto zu generieren.
- Lebensmittelindustrie: Die tastewise-KI soll Unternehmen aus der Nahrungs- und Genussmittelindustrie helfen, Informationen schneller und effizienter aufzubereiten. Sie ermöglicht es, neue Trends zu identifizieren oder neue Rezepte zusammenzustellen, basierend auf Industrieweiten Daten.
Chancen und Risiken der Generative AI
Bei der Frage, was eine Generative AI ist und was sie ausmacht, spielen die Vor- und Nachteile der KI-Technologie eine wichtige Rolle. Bei unserer Liste konzentrieren wir uns auf die Technologie selbst und weniger auf ihre Auswirkungen auf die Gesellschaft. Das sind ethische Fragestellungen, die ebenfalls eine hohe Relevanz haben, jedoch nicht zum Kern der Technologie gehören.
Chancen und Vorteile
- Kreativität: KIs können dabei helfen, neue Ideen zu generieren und auf Ansätze zu kommen, die einem selbst nicht eingefallen wären.
- Produktivität/Kostenreduktion: Generative AI können Content (Texte, Bilder, Videos) automatisiert erschaffen und damit manuelle Arbeit einsparen, zum Beispiel das Zusammenfassen oder Erstellen von Reports/Präsentationen auf Basis von Daten, das Imitieren von menschlichen Interaktionen bei sich wiederholenden Kontexten (etwa Video-/Telefon-/Chatbots im Kundendienst) oder Contenterstellung für Social Media oder Präsentationen. Die Auswahl an Möglichkeiten ist riesig. Das erhöht die Produktivität und erlaubt es den Angestellten, sich auf andere Dinge zu konzentrieren.
- Erweiterung der eigenen Datenbasis: In bestimmten Anwendungen kann es hilfreich sein, aus wenigen bestehenden Daten viele neue zu erzeugen, um den Möglichkeitenraum zu erweitern. Beispiel könnte etwa das Sequenzieren von DNA sein, also das Erschaffen möglicher Kombinationen von Erbgut, um neue Medikamente zu finden.
- Analyse: Dank ihrer Fähigkeit, natürliche Sprache zu „verstehen“, können LLM genutzt werden, um große Mengen an Rohdaten zu analysieren und darin Muster zu finden oder daraus Informationen zu ziehen.
- Geschwindigkeit: Wenn es darum geht, große Mengen an Varianten zu erzeugen, können KI den Menschen unterstützen, aus bestehendem Material schnell Neues zu erzeugen.
- Genauigkeit: Durch ihre Größe können LLM oft sehr viel genauer sein als vorherige KI-Modelle, wenn es um eine breite Anwendung geht (zum Beispiel Sprachübersetzung oder Korrektur von Fehlern in Texten). Durch eine Kombination mit weiteren KI-Techniken wie Knowledge Graphs lässt sich zudem die Fehleranfälligkeit bei Spezialanwendungen reduzieren.
Gefahren und Nachteile
- Bias: KIs sind abhängig von ihren Trainingsdaten. Wenn diese nicht sorgfältig ausgesucht werden, können KIs Vorurteile, Voreingenommenheit oder Tendenzen übernehmen, die bereits in den Daten stecken, wenn auch nicht offensichtlich. Ein berühmtes Beispiel ist etwa eine Amazon-KI für die Personalauswahl im Bereich Human Resources, die nur Männer auswählte, da diese bisher im Unternehmen überdurchschnittlich oft arbeiteten.
- Kosten: Generative AI können, je nach Modell, hohe Kosten beim Training erzeugen. Das Nutzen von Foundation Models kann dem entgegenwirken, jedoch sollten auch die Kosten für das menschliche Feintuning nicht unterschätzt werden.
- Halluzinationen/Vertrauen: KI-Modelle „verstehen“ nicht und geben nicht ihre Trainingsdaten in den Ergebnissen 1:1 wieder. Die Trainingsdaten dienen nur dazu, das „Grundgerüst“ zu bauen. Es kann deshalb passieren, dass KI Erkenntnisse herbeiphantasieren, die so niemals in den Ausgangsdaten enthalten waren. Ohne weitergehende Überprüfung/Recherche oder eine Kombination mit anderen KI-Techniken wie Knowledge Graphs sind die Ergebnisse der KI damit keine verlässliche Wissensquelle.
- Datenschutz: Alle Dateneingaben in cloudbasierte LLM (wie zum Beispiel ChatGPT) werden an Server übergeben, die meistens in Übersee stehen. Zudem können die Daten potenziell genutzt werden, um die Modelle weiterzutrainieren. Damit besteht die Gefahr, dass sensible Daten an die Öffentlichkeit gelangen oder zumindest den eigenen Wirkungsbereich verlassen.
- Veränderungen: Weichen die Inputdaten von den Nutzer:innen von den Trainingsdaten im Laufe der Zeit zu stark ab, kann es passieren, dass die KI die neuen Inputs nicht mehr akkurat verarbeiten kann. Ist zum Beispiel eine KI auf medizinische Daten trainiert, aber plötzlich fangen Nutzer:innen an, auch Fragen zu Physik zu stellen, ist das Ergebnis nicht mehr akkurat.
- Plagiate: Es gibt zahlreiche laufende Verfahren, bei denen Content-Ersteller:innen gegen Generative AI klagen, weil sie ihr Urheberrecht in den Outputs der KIs verletzt sehen. Wer die Ergebnisse der Generative AI nutzt könnte also auch dieses Recht verletzen, weil die Trainingsdaten, auf die die LLMs zurückgreifen, Nutzungsverstöße enthalten.
- CO2-Emissionen: LLM haben einen hohen Energiebedarf, da das Training von Milliarden oder Billionen an Parametern enorme Rechenpower verschlingt.
- Qualität: Zwar lassen sich viele Ergebnisse der LLM praktisch nicht mehr von echten menschlichen Arbeiten unterscheiden, aber das gilt noch nicht überall – und die Gefahr besteht, sich allzu sehr auf die KI zu verlassen, ohne selbst noch einen kritischen Blick auf das Ergebnis zu werfen. Nicht zuletzt sollte man auch wissen, dass die LLM jedem zur Verfügung stehen – deren Ergebnisse damit von Wettbewerber:innen leicht reproduzierbar sind.
Generative AI im Unternehmen anwenden
Unternehmen können Generative AI auf zwei Arten nutzen, einerseits als eine generelle Unterstützung für interne Arbeitsprozesse und andererseits als Erweiterung ihres eigenen Geschäftsmodells.
Generative KI für interne Unternehmensprozesse
Jede:r dritte Deutsche hat bereits ChatGPT genutzt, die Hälfte davon für berufliche Zwecke – dabei 17 Prozent ohne das Wissen des Arbeitgebers. Diese Zahl zeigt: Aus dem Unternehmensalltag ist bereits heute das Modell schwer wegzudenken. Die meisten Anwender:innen nutzen das Tool dabei für Recherchen, Brainstormings, Analyse von Daten, das Erstellen oder Zusammenfassen von Inhalten oder bei der Unterstützung in der Ausbildung oder beim Programmieren. Auch Übersetzung und Korrektur sind gern gesehene Aufgabengebieten. Es wird also vor allem für Bürotätigkeiten genutzt, um diese effizienter zu machen oder um auf neue Ideen zu kommen.
Da das Tool ohnehin schon eingesetzt wird, sollten Unternehmen Guidelines entwerfen, die den Umgang mit diesen KIs festlegen:
- im Sinne des Datenschutzes und des Schutzes geistigen Eigentums, um zu verhindern, dass sensible Daten übertragen und Teil der Trainingsdaten werden
- um bewusst zu machen, dass Generative AIs in der Lage sind, Daten und Fakten zu fantasieren und Recherchen mithilfe von KIs damit fehlerbehaftet sein können
- um zu wissen, dass Erzeugnisse mancher KIs kommerziell nicht genutzt werden dürfen oder nur mit entsprechenden Lizenzen.
Generative KI als Geschäftsmodell
Soll die KI nicht nur im Büroalltag helfen, sondern auch das Produkt oder die Dienstleistung selbst sein, führt meistens kein Weg um ein eigenes AI Model herum. Je nach Einsatzweck gilt es zunächst einmal herauszufinden, welches das Richtige ist. Denn auch wenn LLM die leistungsfähigsten Modelle sind, die es bisher gibt, können sie für einen bestimmten Zweck zu komplex oder nicht genau genug sein. Auch Argumente rund um das Thema Datenschutz und Schutz des geistigen Eigentums sollten hier eine Rolle spielen. Zudem kommen auch die Vorgaben und Rahmenrichtlinien hinzu, die der neue AI-Act der EU an die Wirtschaft stellt.
Hier bietet es sich an, wenn keine eigenen Programmier:innen in der IT-Abteilung diese Aufgabe übernehmen können, mit spezialisierten Dienstleister:innen zusammenzuarbeiten. In Bremen schafft etwa das Transferzentrum für künstliche Intelligenz Hilfestellungen, wenn es darum geht, den richtigen Erstzugang zu KI-Technologien zu finden.
Ein Vorteil der LLM ist es, dass viele von ihnen Open-Source sind. Das heißt, dass ihre Grundversionen und ihre Architektur von jeder und jedem heruntergeladen und für eigene Zwecke genutzt und geändert werden können. Diese Modelle wurden bereits trainiert, der Rechenaufwand dafür fällt also weg, nur für das Feintuning entsteht noch weiterer Aufwand. Zu diesen Modellen gehört etwa Llama von Meta, Falcon, Bloom und MPT. Auch wenn sie nicht so umfangreich wie GPT-4 sind, kommen manche von ihnen an GPT-3 heran. GPT selbst ist nicht Open-Source, jedoch können Unternehmen über eine API (Schnittstelle) auf die Dienste des Modells zurückgreifen und so das Tool direkt in die eigenen Prozesse einbinden oder anhand eigener Daten feintunen. Die Nutzung dieser Schnittstelle kostet jedoch Geld und auch andere Faktoren sollten dabei sorgfältig abgewägt werden – wie zum Beispiel der Schutz der eigenen Daten, denn zum Teil werden Eingaben direkt an die OpenAI-Server übertragen.
Ähnliches gilt auch für andere Generative AI Modelle wie etwa Diffusion Models.
Zusammenfassung: Was ist Generative AI?
- Generative KI ist eine Software, die es ermöglicht, Bilder, Videos, Töne, Texte oder Daten jeder Art völlig neu zu schaffen.
- Dabei nutzt sie Muster, die sie zuvor aus einem Datensatz gelernt hat, um daraus Variationen zu erzeugen, die aber nicht die Originaldaten wiedergeben.
- Eine Generative AI benötigt immer einen Input, den sie verarbeiten, analysieren und verändern kann, um daraus einen Output zu erzeugen.
- Es gibt zahlreiche Anwendungsgebiete für Generative AI, um Daten zu analysieren, zu verändern und neu zu erschaffen.
- Generative AI können Prozesse automatisieren, ersetzen oder effizienter machen, sie können Arbeitsabläufe automatisieren und dazu beitragen, völlig neue Geschäftsmodelle zu finden.
- Die Modelle sind anfällig für verschiedene Arten von Fehlern und müssen daher sehr sorgfältig eingesetzt werden. Es gibt auch rechtliche Hürden, die Anwender:innen im Hinterkopf haben müssen, wenn sie die Ergebnisse der KI nutzen wollen.
- Die bedeutendsten Arten von Generative AI – Large Language Models – lassen sich online über die Cloud nutzen, aber auch eigene Modelle können lokal trainiert werden. Viele Modelle sind Open-Source und basieren auf sehr großen Datenmengen.
Mehr Hintergrundwissen:
- Grundkurs KI: Elements of AI ist ein unter anderem deutschsprachiger Onlinekurs der Universität Helsinki, der einen generellen Überblick über die Möglichkeiten, Chancen und Funktionsweisen von KI bietet.
- Auch IBM hat einen kostenlosen Einführungskurs
- Kurzkurse: In einem Mini-Lernkurs erklärt Google die gröbsten Konzepte und Funktionsweisen zur Generative AI. Auch Amazon bietet in drei Stunden einen groben Abriss.
- Einen längeren Kurs bietet Google
Sie interessieren sich für die Anwendungsmöglichkeiten der KI in Ihrem Unternehmen oder Ihrer Organisation? Werden Sie Teil der Bremer KI-Community und schauen Sie in die Angebote des Transferzentrum für künstliche Intelligenz Bremen.AI das bei der Planung rund um KI-Prozesse in Bremen unterstützt.
Ältere Artikel
Kontakt
Inis Ehrlich
Die Senatorin für Wirtschaft, Häfen und Transformation
T +49 (0) 421 361 94185
inis.ehrlich@wae.bremen.de
www.wirtschaft.bremen.de