banner
Heim / Nachricht / Was jeder CEO über generative KI wissen sollte
Nachricht

Was jeder CEO über generative KI wissen sollte

Nov 13, 2023Nov 13, 2023

Inmitten der Aufregung Da wir uns seit der Veröffentlichung von ChatGPT, Bard, Claude, Midjourney und anderen Tools zur Erstellung von Inhalten mit generativer KI beschäftigen, fragen sich CEOs verständlicherweise: Ist das ein Technologie-Hype oder eine bahnbrechende Chance? Und wenn Letzteres der Fall ist, welchen Wert hat es dann für mein Unternehmen?

Dieser Artikel ist eine Gemeinschaftsarbeit von Michael Chui, Roger Roberts, Tanya Rodchenko, Alex Singla, Alex Sukharevsky, Lareina Yee und Delphine Zurkiya und vertritt Ansichten des McKinsey Technology Council und QuantumBlack, AI von McKinsey, die beide Teil von McKinsey Digital sind .

Die öffentlich zugängliche Version von ChatGPT erreichte in nur zwei Monaten 100 Millionen Nutzer. Sie demokratisierte die KI auf eine noch nie dagewesene Art und Weise und entwickelte sich gleichzeitig zur mit Abstand am schnellsten wachsenden App aller Zeiten. Durch ihre sofort einsatzbereite Zugänglichkeit unterscheidet sich generative KI von allen KIs, die es zuvor gab. Benutzer benötigen keinen Abschluss in maschinellem Lernen, um damit zu interagieren oder einen Nutzen daraus zu ziehen. Fast jeder, der Fragen stellen kann, kann es nutzen. Und wie bei anderen bahnbrechenden Technologien wie dem Personal Computer oder dem iPhone kann eine generative KI-Plattform viele Anwendungen für Zielgruppen jeden Alters und Bildungsniveaus und an jedem Ort mit Internetzugang hervorbringen.

All dies ist möglich, weil generative KI-Chatbots auf Basismodellen basieren, bei denen es sich um expansive neuronale Netze handelt, die auf riesigen Mengen unstrukturierter, unbeschrifteter Daten in verschiedenen Formaten wie Text und Audio trainiert werden. Fundamentmodelle können für vielfältige Aufgaben eingesetzt werden. Im Gegensatz dazu waren frühere Generationen von KI-Modellen oft „schmal“, was bedeutete, dass sie nur eine Aufgabe erfüllen konnten, beispielsweise die Vorhersage der Kundenabwanderung. Ein Stiftungsmodell kann beispielsweise eine Zusammenfassung für einen 20.000 Wörter umfassenden technischen Bericht über Quantencomputing erstellen, eine Markteinführungsstrategie für ein Baumfällunternehmen entwerfen und fünf verschiedene Rezepte für die zehn Zutaten im Kühlschrank einer Person bereitstellen . Der Nachteil dieser Vielseitigkeit besteht darin, dass generative KI vorerst manchmal ungenauere Ergebnisse liefern kann, was dem KI-Risikomanagement neue Aufmerksamkeit schenkt.

Mit geeigneten Leitplanken kann generative KI nicht nur neue Anwendungsfälle für Unternehmen erschließen, sondern auch bestehende beschleunigen, skalieren oder auf andere Weise verbessern. Stellen Sie sich zum Beispiel ein Verkaufsgespräch mit einem Kunden vor. Ein speziell trainiertes KI-Modell könnte einem Verkäufer Upselling-Möglichkeiten vorschlagen, doch bisher basierten diese in der Regel nur auf statischen Kundendaten, die vor Beginn des Anrufs erhoben wurden, wie etwa Demografie und Kaufverhalten. Ein generatives KI-Tool könnte dem Verkäufer in Echtzeit Upselling-Möglichkeiten vorschlagen, die auf dem tatsächlichen Inhalt des Gesprächs basieren und sich dabei auf interne Kundendaten, externe Markttrends und Daten von Social-Media-Influencern stützen. Gleichzeitig könnte generative KI einen ersten Entwurf eines Verkaufsgesprächs bieten, den der Verkäufer anpassen und personalisieren kann.

Das vorangehende Beispiel zeigt die Auswirkungen der Technologie auf eine Jobrolle. Aber fast jeder Wissensarbeiter kann wahrscheinlich von der Zusammenarbeit mit generativer KI profitieren. Auch wenn generative KI irgendwann zur Automatisierung einiger Aufgaben eingesetzt werden könnte, könnte ein Großteil ihres Werts daraus resultieren, wie Softwareanbieter die Technologie in alltägliche Tools (z. B. E-Mail- oder Textverarbeitungssoftware) integrieren, die von Wissensarbeitern verwendet werden. Solche verbesserten Werkzeuge könnten die Produktivität erheblich steigern.

CEOs möchten wissen, ob sie jetzt handeln sollten – und wenn ja, wie sie damit beginnen sollen. Einige sehen möglicherweise eine Chance, sich von der Konkurrenz abzuheben, indem sie die Art und Weise, wie Menschen mit generativen KI-Anwendungen an ihrer Seite arbeiten, neu überdenken. Andere möchten möglicherweise Vorsicht walten lassen, mit einigen Anwendungsfällen experimentieren und mehr erfahren, bevor sie große Investitionen tätigen. Unternehmen müssen außerdem beurteilen, ob sie über das erforderliche technische Fachwissen, die erforderliche Technologie- und Datenarchitektur, das Betriebsmodell und die Risikomanagementprozesse verfügen, die für einige der transformativeren Implementierungen generativer KI erforderlich sind.

Das Ziel dieses Artikels besteht darin, CEOs und ihren Teams dabei zu helfen, über die Wertschöpfung von generativer KI nachzudenken und darüber nachzudenken, wie sie ihre Reise beginnen können. Erstens bieten wir eine Einführung in die generative KI, um Führungskräften zu helfen, den sich schnell entwickelnden Stand der KI und die verfügbaren technischen Optionen besser zu verstehen. Im nächsten Abschnitt wird anhand von vier Beispielfällen, die auf die Verbesserung der organisatorischen Effektivität abzielen, untersucht, wie Unternehmen an generativer KI teilnehmen können. Diese Fälle spiegeln wider, was wir bei Early Adopters beobachten, und werfen ein Licht auf die Vielfalt der Optionen in Bezug auf Technologie, Kosten und Betriebsmodellanforderungen. Abschließend befassen wir uns mit der entscheidenden Rolle des CEO bei der Positionierung einer Organisation für den Erfolg mit generativer KI.

Die Begeisterung für generative KI ist spürbar, und Führungskräfte auf Führungsebene möchten zu Recht mit überlegter und bewusster Geschwindigkeit vorankommen. Wir hoffen, dass dieser Artikel Führungskräften eine ausgewogene Einführung in die vielversprechende Welt der generativen KI bietet.

Die generative KI-Technologie schreitet schnell voran (Abbildung 1). Bemerkenswert sind der Release-Zyklus, die Anzahl der Startups und die schnelle Integration in bestehende Softwareanwendungen. In diesem Abschnitt besprechen wir die Bandbreite generativer KI-Anwendungen und geben eine kurze Erläuterung der Technologie, einschließlich ihrer Unterschiede zur herkömmlichen KI.

Mit generativer KI lässt sich Arbeit automatisieren, erweitern und beschleunigen. In diesem Artikel konzentrieren wir uns darauf, wie generative KI die Arbeit verbessern kann, und nicht darauf, wie sie die Rolle des Menschen ersetzen kann.

Während textgenerierende Chatbots wie ChatGPT große Aufmerksamkeit erhalten, kann generative KI Funktionen für ein breites Spektrum an Inhalten ermöglichen, darunter Bilder, Videos, Audio und Computercode. Und es kann mehrere Funktionen in Organisationen übernehmen, darunter das Klassifizieren, Bearbeiten, Zusammenfassen, Beantworten von Fragen und das Verfassen neuer Inhalte. Jede dieser Aktionen hat das Potenzial, Mehrwert zu schaffen, indem sie die Art und Weise verändert, wie Arbeit auf Aktivitätsebene in allen Geschäftsfunktionen und Arbeitsabläufen erledigt wird. Nachfolgend einige Beispiele.

Mit der Weiterentwicklung und Reife der Technologie können diese Arten generativer KI zunehmend in Unternehmensabläufe integriert werden, um Aufgaben zu automatisieren und bestimmte Aktionen direkt auszuführen (z. B. automatisches Versenden von zusammenfassenden Notizen am Ende von Besprechungen). Wir sehen bereits, dass in diesem Bereich neue Tools entstehen.

Anwendungsprogrammierschnittstelle (API)ist eine Möglichkeit, programmgesteuert auf (normalerweise externe) Modelle, Datensätze oder andere Softwareteile zuzugreifen.

Künstliche Intelligenz (KI)ist die Fähigkeit von Software, Aufgaben auszuführen, die traditionell menschliche Intelligenz erfordern.

Tiefes Lernen ist eine Teilmenge des maschinellen Lernens, die tiefe neuronale Netze verwendet, bei denen es sich um Schichten verbundener „Neuronen“ handelt, deren Verbindungen über Parameter oder Gewichte verfügen, die trainiert werden können. Es ist besonders effektiv beim Lernen aus unstrukturierten Daten wie Bildern, Text und Audio.

Feinabstimmung ist der Prozess der Anpassung eines vorab trainierten Grundlagenmodells, um bei einer bestimmten Aufgabe eine bessere Leistung zu erzielen. Dies erfordert einen relativ kurzen Trainingszeitraum für einen gekennzeichneten Datensatz, der viel kleiner ist als der Datensatz, auf dem das Modell ursprünglich trainiert wurde. Dieses zusätzliche Training ermöglicht es dem Modell, die Nuancen, Terminologie und spezifischen Muster im kleineren Datensatz zu lernen und sich daran anzupassen.

Stiftungsmodelle (FM) sind Deep-Learning-Modelle, die auf großen Mengen unstrukturierter, unbeschrifteter Daten trainiert werden und sofort für eine Vielzahl von Aufgaben verwendet oder durch Feinabstimmung an bestimmte Aufgaben angepasst werden können. Beispiele für diese Modelle sind GPT-4, PaLM, DALL·E 2 und Stable Diffusion.

Generative KI ist KI, die typischerweise auf Basismodellen aufgebaut wird und über Fähigkeiten verfügt, über die frühere KI nicht verfügte, beispielsweise die Fähigkeit, Inhalte zu generieren. Foundation-Modelle können auch für nicht generative Zwecke verwendet werden (z. B. zur Klassifizierung der Benutzerstimmung als negativ oder positiv basierend auf Anrufprotokollen) und bieten gleichzeitig eine deutliche Verbesserung gegenüber früheren Modellen. Wenn wir uns in diesem Artikel auf generative KI beziehen, schließen wir der Einfachheit halber alle Anwendungsfälle des Basismodells ein.

Grafikprozessoren (GPUs) sind Computerchips, die ursprünglich für die Erstellung von Computergrafiken (z. B. für Videospiele) entwickelt wurden und auch für Deep-Learning-Anwendungen nützlich sind. Im Gegensatz dazu laufen traditionelles maschinelles Lernen und andere Analysen in der Regel weiterZentraleinheiten (CPUs), normalerweise als „Prozessor“ eines Computers bezeichnet.

Große Sprachmodelle (LLMs) bilden eine Klasse von Basismodellen, die riesige Mengen an unstrukturiertem Text verarbeiten und die Beziehungen zwischen Wörtern oder Wortteilen, sogenannten Token, lernen können. Dies ermöglicht es LLMs, Text in natürlicher Sprache zu generieren und Aufgaben wie Zusammenfassung oder Wissensextraktion auszuführen. GPT-4 (das ChatGPT zugrunde liegt) und LaMDA (das Modell hinter Bard) sind Beispiele für LLMs.

Maschinelles Lernen (ML) ist eine Teilmenge der KI, bei der ein Modell Fähigkeiten erlangt, nachdem es anhand vieler Beispieldatenpunkte trainiert oder angezeigt wurde. Algorithmen für maschinelles Lernen erkennen Muster und lernen, Vorhersagen und Empfehlungen zu treffen, indem sie Daten und Erfahrungen verarbeiten, anstatt explizite Programmieranweisungen zu erhalten. Die Algorithmen passen sich auch an neue Daten und Erfahrungen an und können effektiver werden.

MLOps bezieht sich auf die technischen Muster und Praktiken zur Skalierung und Aufrechterhaltung von KI und ML. Es umfasst eine Reihe von Praktiken, die den gesamten ML-Lebenszyklus umfassen (Datenverwaltung, Entwicklung, Bereitstellung und Live-Betrieb). Viele dieser Praktiken werden jetzt durch unterstützende Software (Tools, die dabei helfen, Aufgaben zu standardisieren, zu rationalisieren oder zu automatisieren) ermöglicht oder optimiert.

Prompte Technikbezieht sich auf den Prozess des Entwerfens, Verfeinerns und Optimierens von Eingabeaufforderungen, um ein generatives KI-Modell zur Erzeugung gewünschter (d. h. genauer) Ausgaben zu führen.

Strukturierte Datensind tabellarische Daten (z. B. in Tabellen, Datenbanken oder Tabellen organisiert), die zum effektiven Trainieren einiger Modelle für maschinelles Lernen verwendet werden können.

Unstrukturierte DatenEs fehlt ihnen an einem einheitlichen Format oder einer einheitlichen Struktur (z. B. Text, Bilder und Audiodateien) und sie erfordern in der Regel fortgeschrittenere Techniken, um Erkenntnisse zu gewinnen.

Wie der Name schon sagt, besteht der Hauptunterschied zwischen generativer KI und früheren Formen der KI oder Analyse darin, dass sie neue Inhalte generieren kann, oft in „unstrukturierter“ Form (z. B. geschriebener Text oder Bilder), die nicht auf natürliche Weise dargestellt werden Tabellen mit Zeilen und Spalten (eine Liste der Begriffe im Zusammenhang mit generativer KI finden Sie in der Seitenleiste „Glossar“).

Die zugrunde liegende Technologie, die generative KI zum Funktionieren bringt, ist eine Klasse künstlicher neuronaler Netze, sogenannte Basismodelle. Künstliche neuronale Netze sind von den Milliarden Neuronen inspiriert, die im menschlichen Gehirn miteinander verbunden sind. Sie werden mithilfe von Deep Learning trainiert, einem Begriff, der auf die vielen (tiefen) Schichten innerhalb neuronaler Netze anspielt. Deep Learning hat viele der jüngsten Fortschritte in der KI vorangetrieben.

Allerdings unterscheiden sich Foundation-Modelle durch einige Merkmale von früheren Generationen von Deep-Learning-Modellen. Zunächst können sie mit extrem großen und unterschiedlichen Sätzen unstrukturierter Daten trainiert werden. Beispielsweise kann eine Art Grundlagenmodell namens „Large Language Model“ anhand großer Textmengen trainiert werden, die im Internet öffentlich verfügbar sind und viele verschiedene Themen abdecken. Während andere Deep-Learning-Modelle mit großen Mengen unstrukturierter Daten arbeiten können, werden sie normalerweise auf einem spezifischeren Datensatz trainiert. Beispielsweise könnte ein Modell auf einen bestimmten Satz von Bildern trainiert werden, damit es bestimmte Objekte in Fotos erkennen kann.

Tatsächlich können andere Deep-Learning-Modelle oft nur eine solche Aufgabe ausführen. Sie können beispielsweise entweder Objekte in einem Foto klassifizieren oder eine andere Funktion ausführen, beispielsweise eine Vorhersage treffen. Im Gegensatz dazu kann ein Basismodell beide Funktionen erfüllen und auch Inhalte generieren. Foundation-Modelle sammeln diese Fähigkeiten, indem sie aus den umfassenden Trainingsdaten, die sie aufnehmen, Muster und Beziehungen lernen, was ihnen beispielsweise ermöglicht, das nächste Wort in einem Satz vorherzusagen. Auf diese Weise kann ChatGPT Fragen zu verschiedenen Themen beantworten und mit DALL·E 2 und Stable Diffusion Bilder basierend auf einer Beschreibung erstellen.

Aufgrund der Vielseitigkeit eines Basismodells können Unternehmen dasselbe verwenden, um mehrere Geschäftsanwendungsfälle zu implementieren, was mit früheren Deep-Learning-Modellen selten erreicht wurde. Ein Basismodell, das Informationen über die Produkte eines Unternehmens enthält, könnte möglicherweise sowohl zur Beantwortung von Kundenfragen als auch zur Unterstützung von Ingenieuren bei der Entwicklung aktualisierter Versionen der Produkte verwendet werden. Dadurch können Unternehmen deutlich schneller Anwendungen aufsetzen und deren Vorteile realisieren.

Aufgrund der Funktionsweise aktueller Fundamentmodelle sind sie jedoch nicht von Natur aus für alle Anwendungen geeignet. Beispielsweise können große Sprachmodelle zu „Halluzinationen“ neigen oder Fragen mit plausiblen, aber unwahren Behauptungen beantworten (siehe Seitenleiste „Generative KI verantwortungsvoll nutzen“). Darüber hinaus werden nicht immer die zugrunde liegenden Gründe oder Quellen für eine Antwort angegeben. Das bedeutet, dass Unternehmen vorsichtig sein sollten, generative KI ohne menschliche Aufsicht in Anwendungen zu integrieren, bei denen Fehler Schaden anrichten können oder Erklärungen erforderlich sind. Auch für die direkte Analyse großer Mengen tabellarischer Daten oder die Lösung komplexer numerischer Optimierungsprobleme ist generative KI derzeit nicht geeignet. Forscher arbeiten hart daran, diese Einschränkungen zu beseitigen.

Generative KI birgt vielfältige Risiken. CEOs werden ihre Teams und Prozesse so gestalten wollen, dass diese Risiken von Anfang an gemindert werden – nicht nur, um die sich schnell entwickelnden regulatorischen Anforderungen zu erfüllen, sondern auch, um ihr Unternehmen zu schützen und das digitale Vertrauen der Verbraucher zu gewinnen (wir geben später in diesem Buch Empfehlungen dazu). Artikel).1Jim Boehm, Liz Grennan, Alex Singla und Kate Smaje, „Warum digitales Vertrauen wirklich wichtig ist“, McKinsey, 12. September 2022.

Gerechtigkeit:Modelle können aufgrund unvollständiger Trainingsdaten oder Entscheidungen der Ingenieure, die die Modelle entwickeln, algorithmische Verzerrungen erzeugen.

Geistiges Eigentum (IP):Trainingsdaten und Modellausgaben können erhebliche IP-Risiken erzeugen, einschließlich Urheberrechtlich geschützte, markenrechtlich geschützte, patentierte oder anderweitig gesetzlich geschützte Materialien verletzen. Selbst wenn Unternehmen das generative KI-Tool eines Anbieters verwenden, müssen sie verstehen, welche Daten in das Training eingeflossen sind und wie sie in den Tool-Ausgaben verwendet werden.

Privatsphäre: Datenschutzbedenken könnten entstehen, wenn Benutzer Informationen eingeben, die später in Modellausgaben in einer Form landen, die Einzelpersonen identifizierbar macht. Generative KI könnte auch zur Erstellung und Verbreitung schädlicher Inhalte wie Desinformation, Deepfakes und Hassreden eingesetzt werden.

Sicherheit: Generative KI kann von böswilligen Akteuren genutzt werden, um die Komplexität und Geschwindigkeit von Cyberangriffen zu beschleunigen. Es kann auch manipuliert werden, um bösartige Ausgaben bereitzustellen. Beispielsweise gibt ein Dritter einem Modell durch eine Technik namens „Prompt-Injection“ neue Anweisungen, die das Modell dazu verleiten, eine vom Modellhersteller und Endbenutzer unbeabsichtigte Ausgabe zu liefern.

Erklärbarkeit:Generative KI basiert auf neuronalen Netzen mit Milliarden von Parametern und fordert unsere Fähigkeit heraus, zu erklären, wie eine bestimmte Antwort erzeugt wird.

Zuverlässigkeit:Modelle können auf dieselben Eingabeaufforderungen unterschiedliche Antworten liefern, was es dem Benutzer erschwert, die Genauigkeit und Zuverlässigkeit der Ausgaben zu beurteilen.

Organisatorische Auswirkungen:Generative KI kann erhebliche Auswirkungen auf die Belegschaft haben und die Auswirkungen auf bestimmte Gruppen und lokale Gemeinschaften könnten unverhältnismäßig negativ sein.

Soziale und ökologische Auswirkungen:Die Entwicklung und das Training von Grundmodellen können nachteilige soziale und ökologische Folgen haben, einschließlich eines Anstiegs der CO2-Emissionen (zum Beispiel kann das Training eines großen Sprachmodells etwa 315 Tonnen Kohlendioxid ausstoßen).2Ananya Ganesh, Andrew McCallum und Emma Strubell , „Energy and Policy Considerations for Deep Learning in NLP“, Tagungsband der 57. Jahrestagung der Association for Computational Linguistics, 5. Juni 2019.

Während Basismodelle als „Gehirn“ der generativen KI dienen, entsteht eine ganze Wertschöpfungskette, die das Training und den Einsatz dieser Technologie unterstützt (Abbildung 2).1Weitere Informationen finden Sie unter „Exploring Opportunities in the Generative AI Value Chain“, McKinsey, 26. April 2023. Spezialisierte Hardware stellt die umfangreiche Rechenleistung bereit, die zum Trainieren der Modelle erforderlich ist. Cloud-Plattformen bieten die Möglichkeit, auf diese Hardware zuzugreifen. MLOps- und Model-Hub-Anbieter bieten die Tools, Technologien und Praktiken, die ein Unternehmen benötigt, um ein Basismodell anzupassen und es in seinen Endbenutzeranwendungen bereitzustellen. Viele Unternehmen betreten den Markt, um Anwendungen anzubieten, die auf Basismodellen basieren und es ihnen ermöglichen, eine bestimmte Aufgabe auszuführen, beispielsweise den Kunden eines Unternehmens bei Serviceproblemen zu helfen.

Die Entwicklung der ersten Basismodelle erforderte angesichts der erheblichen Rechenressourcen, die zu deren Training erforderlich waren, und des menschlichen Aufwands, der zu ihrer Verfeinerung erforderlich war, hohe Investitionen. Daher wurden sie hauptsächlich von einigen Technologiegiganten, Start-ups mit erheblichen Investitionen und einigen Open-Source-Forschungskollektiven (z. B. BigScience) entwickelt. Es wird jedoch an beiden kleineren Modellen gearbeitet, die für einige Aufgaben effektive Ergebnisse liefern können, und an Schulungen, die effizienter sind. Dies könnte den Markt schließlich für mehr Marktteilnehmer öffnen. Einigen Start-ups ist es bereits gelungen, eigene Modelle zu entwickeln – Cohere, Anthropic und AI21 Labs beispielsweise bauen und trainieren eigene große Sprachmodelle.

CEOs sollten die Erforschung generativer KI als ein Muss und nicht als ein Vielleicht betrachten. Generative KI kann in einer Vielzahl von Anwendungsfällen Mehrwert schaffen. Die wirtschaftlichen und technischen Voraussetzungen für den Start sind nicht unerschwinglich, während die Kehrseite der Untätigkeit darin bestehen könnte, schnell hinter die Konkurrenz zurückzufallen. Jeder CEO sollte mit dem Führungsteam zusammenarbeiten, um darüber nachzudenken, wo und wie er spielen soll. Einige CEOs kommen möglicherweise zu dem Schluss, dass generative KI eine transformative Chance für ihre Unternehmen darstellt und die Möglichkeit bietet, alles neu zu denken, von Forschung und Entwicklung über Marketing und Vertrieb bis hin zu Kundenabläufen. Andere entscheiden sich möglicherweise dafür, klein anzufangen und später zu skalieren. Sobald die Entscheidung getroffen ist, stehen KI-Experten je nach Anwendungsfall technische Wege zur Umsetzung der Strategie zur Verfügung.

Ein Großteil des Nutzens (wenn auch nicht unbedingt des gesamten Werts) der generativen KI in einem Unternehmen wird von Mitarbeitern ausgehen, die Funktionen nutzen, die in die Software integriert sind, die sie bereits haben. E-Mail-Systeme bieten die Möglichkeit, erste Nachrichtenentwürfe zu schreiben. Produktivitätsanwendungen erstellen den ersten Entwurf einer Präsentation basierend auf einer Beschreibung. Finanzsoftware erstellt eine prosaische Beschreibung der wichtigsten Merkmale eines Finanzberichts. Customer-Relationship-Management-Systeme werden Wege zur Interaktion mit Kunden vorschlagen. Diese Funktionen könnten die Produktivität jedes Wissensarbeiters steigern.

Aber generative KI kann in bestimmten Anwendungsfällen auch transformativer sein. Im Folgenden betrachten wir vier Beispiele dafür, wie Unternehmen in verschiedenen Branchen heute generative KI nutzen, um die Art und Weise, wie in ihrer Organisation gearbeitet wird, neu zu gestalten.2 Bei diesen Beispielen handelt es sich um Zusammenführungen von Fällen, die aus der Arbeit unserer Kunden und öffentlichen Beispielen stammen, und nicht darum, genaue Ereignisse in einem einzigen Fall wiederzugeben bestimmtes Unternehmen. Die Beispiele reichen von solchen, die nur minimale Ressourcen erfordern, bis hin zu ressourcenintensiven Unternehmungen. (Einen kurzen Vergleich dieser Beispiele und weitere technische Details finden Sie in Anlage 3.)

Das erste Beispiel ist ein Fall mit relativ geringer Komplexität und unmittelbaren Produktivitätsvorteilen, da er eine serienmäßige generative KI-Lösung verwendet und keine interne Anpassung erfordert.

Der größte Teil der Arbeit eines Softwareentwicklers besteht darin, Code zu schreiben. Es handelt sich um einen arbeitsintensiven Prozess, der umfangreiche Versuche und Recherchen in privaten und öffentlichen Unterlagen erfordert. Bei diesem Unternehmen hat der Mangel an qualifizierten Softwareentwicklern zu einem großen Rückstand bei Anfragen nach Funktionen und Fehlerbehebungen geführt.

Um die Produktivität der Ingenieure zu verbessern, implementiert das Unternehmen ein KI-basiertes Code-Vervollständigungsprodukt, das in die Software integriert wird, die die Ingenieure zum Codieren verwenden. Dadurch können Ingenieure Codebeschreibungen in natürlicher Sprache schreiben, während die KI mehrere Varianten von Codeblöcken vorschlägt, die der Beschreibung entsprechen. Ingenieure können einen der KI-Vorschläge auswählen, die erforderlichen Verbesserungen vornehmen und darauf klicken, um den Code einzufügen.

Unsere Untersuchungen haben gezeigt, dass solche Tools die Codegenerierung eines Entwicklers um bis zu 50 Prozent beschleunigen können. Es kann auch beim Debuggen hilfreich sein, was die Qualität des entwickelten Produkts verbessern kann. Aber heute kann generative KI qualifizierte Softwareentwickler nicht ersetzen. Tatsächlich scheinen erfahrenere Ingenieure die größten Produktivitätsvorteile aus den Tools zu ziehen, während unerfahrene Entwickler weniger beeindruckende – und manchmal negative – Ergebnisse erzielen. Ein bekanntes Risiko besteht darin, dass der KI-generierte Code Schwachstellen oder andere Fehler enthalten kann. Daher müssen Softwareentwickler einbezogen werden, um die Qualität und Sicherheit des Codes sicherzustellen (Möglichkeiten zur Risikominderung finden Sie im letzten Abschnitt dieses Artikels).

Die Kosten für dieses serienmäßige generative KI-Codierungstool sind relativ niedrig und die Zeit bis zur Markteinführung ist kurz, da das Produkt verfügbar ist und keine nennenswerte Eigenentwicklung erfordert. Die Kosten variieren je nach Softwareanbieter, aber Abonnements mit festen Gebühren liegen zwischen 10 und 30 US-Dollar pro Benutzer und Monat. Bei der Auswahl eines Tools ist es wichtig, Fragen zur Lizenzierung und zum geistigen Eigentum mit dem Anbieter zu besprechen, um sicherzustellen, dass der generierte Code nicht zu Verstößen führt.

Unterstützt wird das neue Tool von einem kleinen funktionsübergreifenden Team, das sich auf die Auswahl des Softwareanbieters und die Überwachung der Leistung konzentriert, einschließlich der Prüfung auf geistiges Eigentum und Sicherheitsprobleme. Für die Implementierung sind lediglich Workflow- und Richtlinienänderungen erforderlich. Da es sich bei dem Tool um eine reine Software as a Service (SaaS) von der Stange handelt, sind zusätzliche Rechen- und Speicherkosten minimal oder gar nicht vorhanden.

Unternehmen entscheiden sich möglicherweise dafür, ihre eigenen generativen KI-Anwendungen zu entwickeln und dabei Basismodelle (über APIs oder offene Modelle) zu nutzen, anstatt ein Standardtool zu verwenden. Dies erfordert einen höheren Investitionsaufwand als im vorherigen Beispiel, ermöglicht jedoch einen individuelleren Ansatz, um den spezifischen Kontext und Anforderungen des Unternehmens zu erfüllen.

In diesem Beispiel möchte eine große Unternehmensbank generative KI nutzen, um die Produktivität von Relationship Managern (RMs) zu verbessern. RMs verbringen viel Zeit damit, umfangreiche Dokumente wie Jahresberichte und Abschriften von Telefongesprächen zu prüfen, um über die Situation und Prioritäten eines Kunden auf dem Laufenden zu bleiben. Dies ermöglicht es dem RM, Dienstleistungen anzubieten, die auf die besonderen Bedürfnisse des Kunden zugeschnitten sind.

Die Bank beschloss, eine Lösung zu entwickeln, die über eine API auf ein Basismodell zugreift. Die Lösung scannt Dokumente und kann schnell zusammengefasste Antworten auf von RMs gestellte Fragen liefern. Zusätzliche Schichten rund um das Basismodell werden erstellt, um die Benutzererfahrung zu optimieren, das Tool in Unternehmenssysteme zu integrieren und Risiko- und Compliance-Kontrollen anzuwenden. Insbesondere müssen Modellausgaben überprüft werden, ähnlich wie eine Organisation die Ausgaben eines Junior-Analysten überprüfen würde, da bekannt ist, dass einige große Sprachmodelle halluzinieren. RMs werden außerdem darin geschult, Fragen so zu stellen, dass die Lösung die genauesten Antworten liefert (sogenanntes Prompt Engineering), und es werden Prozesse eingerichtet, um die Validierung der Ausgaben und Informationsquellen des Tools zu optimieren.

In diesem Fall kann generative KI den Analyseprozess eines RM beschleunigen (von Tagen auf Stunden), die Arbeitszufriedenheit verbessern und möglicherweise Erkenntnisse gewinnen, die der RM andernfalls übersehen hätte.

Die Entwicklungskosten entstehen hauptsächlich durch den Aufbau der Benutzeroberfläche und die Integrationen, die Zeit von einem Datenwissenschaftler, einem Ingenieur für maschinelles Lernen oder Dateningenieur, einem Designer und einem Front-End-Entwickler erfordern. Zu den laufenden Kosten zählen die Softwarewartung und die Kosten für die Nutzung von APIs. Die Kosten hängen von der Modellauswahl und den Gebühren des Drittanbieters, der Teamgröße und der Zeit bis zum Produkt mit minimaler Rentabilität ab.

Die nächste Stufe der Verfeinerung ist die Feinabstimmung eines Grundlagenmodells. In diesem Beispiel verwendet ein Unternehmen ein für Gespräche optimiertes Basismodell und verfeinert es anhand seiner eigenen hochwertigen Kundenchats und branchenspezifischen Fragen und Antworten. Das Unternehmen ist in einem Sektor mit Fachterminologie tätig (z. B. Recht, Medizin, Immobilien und Finanzen). Schneller Kundenservice ist ein Wettbewerbsvorteil.

Die Kundendienstmitarbeiter dieses Unternehmens bearbeiten täglich Hunderte eingehender Anfragen. Die Reaktionszeiten waren teilweise zu lang, was zu Unzufriedenheit bei den Benutzern führte. Das Unternehmen beschloss, einen generativen KI-Kundenservice-Bot einzuführen, um die meisten Kundenanfragen zu bearbeiten. Das Ziel war eine schnelle Reaktion in einem Ton, der zur Unternehmensmarke und den Kundenpräferenzen passte. Ein Teil des Prozesses der Feinabstimmung und Erprobung des Basismodells besteht darin, sicherzustellen, dass die Antworten mit der domänenspezifischen Sprache, dem Markenversprechen und dem für das Unternehmen festgelegten Ton übereinstimmen; Eine kontinuierliche Überwachung ist erforderlich, um die Leistung des Systems in mehreren Dimensionen, einschließlich der Kundenzufriedenheit, zu überprüfen.

Das Unternehmen erstellte eine Produkt-Roadmap bestehend aus mehreren Wellen, um mögliche Modellfehler zu minimieren. In der ersten Welle wurde der Chatbot intern pilotiert. Die Mitarbeiter konnten auf die Vorschläge des Modells mit „Daumen hoch“ oder „Daumen runter“ antworten und das Modell konnte aus diesen Eingaben lernen. Im nächsten Schritt „hörte“ das Model den Gesprächen mit dem Kundensupport zu und machte Vorschläge. Nachdem die Technologie ausreichend getestet worden war, begann die zweite Welle, und das Modell wurde hin zu kundenorientierten Anwendungsfällen mit einem Menschen im Kreislauf verlagert. Wenn die Führungskräfte schließlich völliges Vertrauen in die Technologie haben, kann sie weitgehend automatisiert werden.

In diesem Fall hat die generative KI den Servicemitarbeitern mehr Zeit gegeben, sich auf höherwertige und komplexe Kundenanfragen zu konzentrieren, die Effizienz und Arbeitszufriedenheit der Mitarbeiter verbessert und die Servicestandards und die Kundenzufriedenheit erhöht. Der Bot hat Zugriff auf alle internen Daten des Kunden und kann sich an frühere Gespräche (einschließlich Telefonanrufe) „erinnern“, was einen großen Fortschritt gegenüber aktuellen Kunden-Chatbots darstellt.

Um die Vorteile zu nutzen, erforderte dieser Anwendungsfall erhebliche Investitionen in Software, Cloud-Infrastruktur und technische Talente sowie ein höheres Maß an interner Koordination in den Bereichen Risiko und Betrieb. Im Allgemeinen kostet die Feinabstimmung von Grundmodellen zwei- bis dreimal so viel wie der Aufbau einer oder mehrerer Softwareschichten auf einer API. Die erhöhten Kosten sind auf Talent- und Drittkosten für Cloud Computing (bei Feinabstimmung eines selbst gehosteten Modells) oder für die API (bei Feinabstimmung über eine Drittanbieter-API) zurückzuführen. Um die Lösung zu implementieren, benötigte das Unternehmen Hilfe von DataOps- und MLOps-Experten sowie Input von anderen Funktionen wie Produktmanagement, Design, Rechts- und Kundendienstspezialisten.

Die komplexesten und individuellsten generativen KI-Anwendungsfälle entstehen, wenn keine geeigneten Grundmodelle verfügbar sind und das Unternehmen eines von Grund auf neu entwickeln muss. Diese Situation kann in spezialisierten Sektoren oder bei der Arbeit mit einzigartigen Datensätzen auftreten, die sich erheblich von den Daten unterscheiden, die zum Trainieren bestehender Basismodelle verwendet werden, wie dieses pharmazeutische Beispiel zeigt. Das Training eines Fundamentmodells von Grund auf stellt erhebliche technische, technische und ressourcenbezogene Herausforderungen dar. Der zusätzliche Return on Investment durch den Einsatz eines leistungsstärkeren Modells sollte die finanziellen und personellen Kosten überwiegen.

In diesem Beispiel mussten Forscher in der Arzneimittelforschung eines Pharmaunternehmens anhand von Mikroskopiebildern entscheiden, welche Experimente als nächstes durchgeführt werden sollten. Sie verfügten über einen Datensatz aus Millionen dieser Bilder, der eine Fülle visueller Informationen zu Zellmerkmalen enthielt, die für die Arzneimittelentwicklung relevant, für einen Menschen jedoch schwer zu interpretieren sind. Die Bilder wurden zur Bewertung potenzieller Therapiekandidaten verwendet.

Das Unternehmen beschloss, ein Tool zu entwickeln, das Wissenschaftlern helfen würde, die Beziehung zwischen der Arzneimittelchemie und den aufgezeichneten Mikroskopieergebnissen zu verstehen, um die Forschungs- und Entwicklungsbemühungen zu beschleunigen. Da solche multimodalen Modelle noch in den Kinderschuhen stecken, entschied sich das Unternehmen, stattdessen eigene Modelle auszubilden. Um das Modell zu erstellen, nutzten die Teammitglieder sowohl reale Bilder, die zum Trainieren bildbasierter Grundmodelle verwendet werden, als auch ihren großen internen Mikroskopie-Bilddatensatz.

Das trainierte Modell leistete einen Mehrwert, indem es vorhersagte, welche Medikamentenkandidaten zu günstigen Ergebnissen führen könnten, und indem es die Fähigkeit verbesserte, relevante Zellmerkmale für die Medikamentenentwicklung genau zu identifizieren. Dies kann zu effizienteren und effektiveren Medikamentenentwicklungsprozessen führen, was nicht nur die Zeit bis zur Wertschöpfung verkürzt, sondern auch die Anzahl ungenauer, irreführender oder fehlgeschlagener Analysen verringert.

Im Allgemeinen kostet das Training eines Modells von Grund auf zehn- bis 20-mal mehr als das Erstellen von Software rund um eine Modell-API. Größere Teams (darunter zum Beispiel Experten für maschinelles Lernen mit Doktortitel) und höhere Rechen- und Speicherausgaben sind für die Kostenunterschiede verantwortlich. Die prognostizierten Kosten für das Training eines Basismodells variieren stark je nach gewünschtem Leistungsniveau und Modellierungskomplexität des Modells. Diese Faktoren beeinflussen die erforderliche Größe des Datensatzes, die Teamzusammensetzung und die Rechenressourcen. In diesem Anwendungsfall machten das Engineering-Team und die laufenden Cloud-Kosten den Großteil der Kosten aus.

Das Unternehmen stellte fest, dass umfangreiche Aktualisierungen seiner technischen Infrastruktur und Prozesse erforderlich sein würden, einschließlich Zugriff auf viele GPU-Instanzen zum Trainieren des Modells, Tools zum Verteilen des Trainings auf viele Systeme und Best-Practice-MLOps zur Begrenzung von Kosten und Projektdauer. Außerdem war ein erheblicher Datenverarbeitungsaufwand für die Sammlung, Integration (sicherstellen, dass Dateien verschiedener Datensätze das gleiche Format und die gleiche Auflösung haben) und Bereinigung (Filtern minderwertiger Daten, Entfernen von Duplikaten und Sicherstellen, dass die Verteilung der beabsichtigten Verteilung entspricht) erforderlich verwenden). Da das Basismodell von Grund auf trainiert wurde, waren gründliche Tests des endgültigen Modells erforderlich, um sicherzustellen, dass die Ausgabe präzise und sicher in der Anwendung war.

Die hier beschriebenen Anwendungsfälle bieten CEOs wichtige Erkenntnisse, wenn sie sich auf die Reise zur generativen KI begeben:

Dem CEO kommt eine entscheidende Rolle zu, wenn es darum geht, den Fokus eines Unternehmens auf generative KI voranzutreiben. In diesem abschließenden Abschnitt besprechen wir Strategien, die CEOs zu Beginn ihrer Reise im Hinterkopf behalten sollten. Viele von ihnen spiegeln die Reaktionen von Führungskräften auf frühere Wellen neuer Technologien wider. Generative KI stellt jedoch ihre eigenen Herausforderungen dar, einschließlich der Verwaltung einer Technologie, die sich mit einer Geschwindigkeit entwickelt, die bei früheren Technologieübergängen nicht möglich war.

Viele Organisationen begannen, die Möglichkeiten der traditionellen KI durch isolierte Experimente zu erkunden. Generative KI erfordert angesichts ihrer einzigartigen Risikoüberlegungen und der Fähigkeit von Basismodellen, mehrere Anwendungsfälle im gesamten Unternehmen zu unterstützen, einen bewussteren und koordinierteren Ansatz. Beispielsweise könnte ein Modell, das mithilfe von proprietärem Material fein abgestimmt wurde, um die Markenidentität des Unternehmens widerzuspiegeln, in verschiedenen Anwendungsfällen (zum Beispiel zur Erstellung personalisierter Marketingkampagnen und Produktbeschreibungen) und für Geschäftsfunktionen wie Produktentwicklung und Marketing eingesetzt werden.

Zu diesem Zweck empfehlen wir die Einberufung einer funktionsübergreifenden Gruppe von Führungskräften des Unternehmens (z. B. Vertreter der Bereiche Datenwissenschaft, Technik, Recht, Cybersicherheit, Marketing, Design und andere Geschäftsfunktionen). Eine solche Gruppe kann nicht nur dabei helfen, die Anwendungsfälle mit dem höchsten Wert zu identifizieren und zu priorisieren, sondern auch eine koordinierte und sichere Implementierung im gesamten Unternehmen ermöglichen.

Generative KI ist ein leistungsstarkes Tool, das die Arbeitsweise von Unternehmen verändern kann, mit besonderer Wirkung auf bestimmte Geschäftsbereiche innerhalb der Wertschöpfungskette (z. B. Marketing für einen Einzelhändler oder Betrieb für einen Hersteller). Die einfache Bereitstellung generativer KI kann Unternehmen dazu verleiten, sie auf sporadische Anwendungsfälle im gesamten Unternehmen anzuwenden. Es ist wichtig, eine Perspektive auf die Familie der Anwendungsfälle nach Domäne zu haben, die über alle Geschäftsfunktionen hinweg das größte Transformationspotenzial haben. Unternehmen stellen sich den Zielzustand neu vor, der durch generative KI ermöglicht wird, die im Einklang mit anderen herkömmlichen KI-Anwendungen arbeitet, zusammen mit neuen Arbeitsweisen, die zuvor möglicherweise nicht möglich waren.

Ein moderner Daten- und Technologie-Stack ist der Schlüssel zu nahezu jedem erfolgreichen Ansatz für generative KI. CEOs sollten sich an ihre Chief Technology Officers wenden, um festzustellen, ob das Unternehmen über die erforderlichen technischen Fähigkeiten in Bezug auf Rechenressourcen, Datensysteme, Tools und Zugriff auf Modelle (Open Source über Model Hubs oder kommerziell über APIs) verfügt.

Das Lebenselixier der generativen KI ist beispielsweise der reibungslose Zugriff auf Daten, die auf einen bestimmten Geschäftskontext oder ein bestimmtes Problem zugeschnitten sind. Unternehmen, die noch keine Möglichkeiten gefunden haben, ihre Daten effektiv zu harmonisieren und einen einfachen Zugriff darauf zu ermöglichen, werden nicht in der Lage sein, die generative KI zu optimieren, um weitere ihrer potenziell transformativen Einsatzmöglichkeiten zu erschließen. Ebenso wichtig ist der Entwurf einer skalierbaren Datenarchitektur, die Datenverwaltung und Sicherheitsverfahren umfasst. Je nach Anwendungsfall muss möglicherweise auch die vorhandene Computer- und Tool-Infrastruktur (die über einen Cloud-Anbieter bezogen oder intern eingerichtet werden kann) aktualisiert werden. Eine klare Daten- und Infrastrukturstrategie, die auf dem Geschäftswert und dem Wettbewerbsvorteil generativer KI basiert, wird von entscheidender Bedeutung sein.

CEOs sollten vermeiden, in der Planungsphase steckenzubleiben. Neue Modelle und Anwendungen werden schnell entwickelt und veröffentlicht. GPT-4 beispielsweise wurde im März 2023 veröffentlicht, nachdem ChatGPT (GPT-3.5) im November 2022 und GPT-3 im Jahr 2020 veröffentlicht wurden. In der Geschäftswelt ist Zeit von entscheidender Bedeutung und die Schnelllebigkeit ist entscheidend Die Natur der generativen KI-Technologie erfordert, dass Unternehmen schnell handeln, um sie zu nutzen. Es gibt verschiedene Möglichkeiten, wie Führungskräfte ihre Arbeit stabil halten können.

Obwohl generative KI noch in den Kinderschuhen steckt, ist es wichtig, intern zu zeigen, wie sie sich auf das Betriebsmodell eines Unternehmens auswirken kann, vielleicht durch einen „Leuchtturmansatz“. Ein Weg in die Zukunft besteht beispielsweise darin, einen „virtuellen Experten“ aufzubauen, der es Mitarbeitern an vorderster Front ermöglicht, proprietäre Wissensquellen zu nutzen und den Kunden die relevantesten Inhalte anzubieten. Dies hat das Potenzial, die Produktivität zu steigern, Begeisterung zu wecken und es einem Unternehmen zu ermöglichen, generative KI intern zu testen, bevor es auf kundenorientierte Anwendungen skaliert.

Wie bei anderen Wellen technischer Innovation wird es auch bei der Konzeptbeweis-Müdigkeit zu einer Erschöpfung kommen und es gibt viele Beispiele für Unternehmen, die im „Pilot-Fegefeuer“ stecken bleiben. Aber die Förderung eines Proof of Concept ist immer noch die beste Möglichkeit, einen wertvollen Geschäftsfall schnell zu testen und zu verfeinern, bevor er auf angrenzende Anwendungsfälle ausgeweitet wird. Durch die Konzentration auf frühe Erfolge, die aussagekräftige Ergebnisse liefern, können Unternehmen Dynamik aufbauen und dann skalieren und so die Vielseitigkeit der generativen KI nutzen. Dieser Ansatz könnte es Unternehmen ermöglichen, eine breitere Einführung von KI zu fördern und die Innovationskultur zu schaffen, die für die Aufrechterhaltung eines Wettbewerbsvorteils unerlässlich ist. Wie oben dargelegt, möchte das funktionsübergreifende Führungsteam sicherstellen, dass solche Konzeptnachweise bewusst und koordiniert erfolgen.

Wie unsere vier detaillierten Anwendungsfälle zeigen, müssen Unternehmensleiter die Möglichkeiten der Wertschöpfung mit den Risiken im Zusammenhang mit generativer KI abwägen. Laut unserer aktuellen globalen KI-Umfrage mindern die meisten Unternehmen die meisten mit traditioneller KI verbundenen Risiken nicht, obwohl mehr als die Hälfte der Unternehmen die Technologie bereits eingeführt haben.3 „Der Stand der KI im Jahr 2022 – ein halbes Jahrzehnt später.“ Rezension“, McKinsey, 6. Dezember 2022. Generative KI lenkt erneut die Aufmerksamkeit auf viele dieser gleichen Risiken, wie zum Beispiel das Potenzial, in Trainingsdaten verborgene Vorurteile aufrechtzuerhalten, während sie gleichzeitig neue Risiken aufzeigt, wie zum Beispiel ihre Neigung zu Halluzinationen.

Daher möchte das funktionsübergreifende Führungsteam nicht nur übergreifende ethische Grundsätze und Richtlinien für den Einsatz generativer KI festlegen, sondern auch ein umfassendes Verständnis der Risiken entwickeln, die jeder potenzielle Anwendungsfall mit sich bringt. Es wird wichtig sein, nach ersten Anwendungsfällen zu suchen, die sowohl mit der allgemeinen Risikotoleranz der Organisation übereinstimmen als auch über Strukturen zur Minderung von Folgerisiken verfügen. Beispielsweise könnte ein Einzelhandelsunternehmen einem Anwendungsfall Priorität einräumen, der einen etwas geringeren Wert, aber auch ein geringeres Risiko hat – etwa die Erstellung erster Entwürfe von Marketinginhalten und andere Aufgaben, die einen Menschen auf dem Laufenden halten. Gleichzeitig könnte das Unternehmen einen höherwertigen und risikoreicheren Anwendungsfall außer Acht lassen, beispielsweise ein Tool, das automatisch hyperpersonalisierte Marketing-E-Mails erstellt und versendet. Solche risikoorientierten Praktiken können es Unternehmen ermöglichen, die notwendigen Kontrollen einzurichten, um generative KI ordnungsgemäß zu verwalten und die Compliance aufrechtzuerhalten.

CEOs und ihre Teams möchten außerdem über die neuesten Entwicklungen in der generativen KI-Regulierung auf dem Laufenden bleiben, einschließlich Regeln zum Verbraucherdatenschutz und zu geistigen Eigentumsrechten, um das Unternehmen vor Haftungsproblemen zu schützen. Länder können bei der Regulierung unterschiedliche Ansätze verfolgen, wie sie es oft bereits bei KI und Daten tun. Unternehmen müssen möglicherweise ihren Arbeitsansatz anpassen, um Prozessmanagement, Kultur und Talentmanagement so zu kalibrieren, dass sie mit dem sich schnell entwickelnden regulatorischen Umfeld und den Risiken generativer KI in großem Maßstab umgehen können.

Unternehmensführer sollten sich auf den Aufbau und die Aufrechterhaltung ausgewogener Allianzen konzentrieren. Die Akquisitions- und Allianzstrategie eines Unternehmens sollte sich weiterhin auf den Aufbau eines Ökosystems von Partnern konzentrieren, die auf unterschiedliche Kontexte abgestimmt sind und die Anforderungen der generativen KI auf allen Ebenen des Tech-Stacks berücksichtigen. Dabei sollte darauf geachtet werden, eine Abhängigkeit von einem Anbieter zu verhindern.

Die Zusammenarbeit mit den richtigen Unternehmen kann dazu beitragen, die Umsetzung zu beschleunigen. Organisationen müssen nicht alle Anwendungen oder Basismodelle selbst entwickeln. Stattdessen können sie mit Anbietern und Experten für generative KI zusammenarbeiten, um schneller voranzukommen. Sie können beispielsweise mit Modellanbietern zusammenarbeiten, um Modelle für einen bestimmten Sektor anzupassen, oder mit Infrastrukturanbietern zusammenarbeiten, die Supportfunktionen wie skalierbares Cloud Computing anbieten.

Unternehmen können das Fachwissen anderer nutzen und schnell die Vorteile der neuesten generativen KI-Technologie nutzen. Doch generative KI-Modelle sind nur die Spitze des Speeres: Für die Wertschöpfung sind zahlreiche zusätzliche Elemente erforderlich.

Um generative KI effektiv für den geschäftlichen Nutzen einzusetzen, müssen Unternehmen ihre technischen Fähigkeiten ausbauen und ihre aktuellen Mitarbeiter weiterbilden. Dies erfordert eine konzertierte Anstrengung der Führung, um die erforderlichen Fähigkeiten auf der Grundlage der priorisierten Anwendungsfälle des Unternehmens zu identifizieren, die wahrscheinlich über technische Rollen hinausgehen und einen Talentmix aus den Bereichen Technik, Daten, Design, Risiko, Produkt und anderen Geschäftsfunktionen umfassen.

Wie die oben hervorgehobenen Anwendungsfälle zeigen, variieren die technischen und talentierten Anforderungen je nach Art einer bestimmten Implementierung erheblich – von der Verwendung von Standardlösungen bis hin zum Aufbau eines Grundmodells von Grund auf. Um beispielsweise ein generatives Modell zu erstellen, benötigt ein Unternehmen möglicherweise promovierte Experten für maschinelles Lernen. Um hingegen generative KI-Tools unter Verwendung bestehender Modelle und SaaS-Angebote zu entwickeln, kann ein Dateningenieur und ein Softwareentwickler ausreichend sein, um die Bemühungen zu leiten.

Neben der Einstellung der richtigen Talente möchten Unternehmen auch ihre vorhandenen Arbeitskräfte schulen und weiterbilden. Aufforderungsbasierte Konversationsbenutzeroberflächen können die Verwendung generativer KI-Anwendungen benutzerfreundlich machen. Dennoch müssen Benutzer ihre Eingabeaufforderungen optimieren, die Einschränkungen der Technologie verstehen und wissen, wo und wann sie die Anwendung sinnvoll in ihre Arbeitsabläufe integrieren können. Die Führung sollte klare Richtlinien für den Einsatz generativer KI-Tools vorgeben und fortlaufende Schulungen und Schulungen anbieten, um die Mitarbeiter über ihre Risiken auf dem Laufenden zu halten. Die Förderung einer Kultur der selbstgesteuerten Forschung und des Experimentierens kann Mitarbeiter auch dazu ermutigen, innovative Prozesse und Produkte zu entwickeln, die diese Tools effektiv integrieren.

Unternehmen verfolgen seit Jahren KI-Ambitionen und viele haben neue Einnahmequellen, Produktverbesserungen und betriebliche Effizienzsteigerungen realisiert. Ein Großteil der Erfolge in diesen Bereichen ist auf KI-Technologien zurückzuführen, die nach wie vor das beste Werkzeug für eine bestimmte Aufgabe sind, und Unternehmen sollten diese Anstrengungen weiter ausbauen. Generative KI stellt jedoch einen weiteren vielversprechenden Fortschritt und eine Welt voller neuer Möglichkeiten dar. Während das Betriebs- und Risikogerüst der Technologie noch aufgebaut wird, wissen Unternehmensleiter, dass sie sich auf die Reise zur generativen KI begeben sollten. Aber wo und wie sollen sie beginnen? Die Antwort wird von Unternehmen zu Unternehmen sowie innerhalb einer Organisation unterschiedlich sein. Einige werden groß anfangen; andere unternehmen möglicherweise kleinere Experimente. Der beste Ansatz hängt von den Ambitionen und der Risikobereitschaft eines Unternehmens ab. Was auch immer das Ziel ist, der Schlüssel liegt darin, loszulegen und durch Handeln zu lernen.

Michael Chuiist Partner beim McKinsey Global Institute und Partner im McKinsey-Büro in der Bay Area, woRoger Robertsist Partner,Tanja Rodtschenkoist assoziierter Partner undLareina Yee, Vorsitzender des McKinsey Technology Council, ist Senior Partner.Alex Singla, Senior Partner im Chicagoer Büro, undAlex Sucharewski, Senior Partner im Londoner Büro, sind weltweit führend in den Bereichen QuantumBlack und AI von McKinsey.Delphine Zurkiyaist Senior Partner im Bostoner Büro.

Bildnachweis: Video erstellt von Chris Grava / Darby Films unter Verwendung einer knotenbasierten visuellen Programmiersprache

Inmitten der Aufregung Anwendungsprogrammierschnittstelle (API) Künstliche Intelligenz (KI) Deep Learning Feinabstimmung Foundation-Modelle (FM) Generative KI Grafikprozessoren (GPUs) Zentralprozessoren (CPUs) Große Sprachmodelle (LLMs) Maschinelles Lernen (ML) MLOps Prompt Engineering Strukturierte Daten Unstrukturierte Daten Fairness: Geistiges Eigentum (IP): Datenschutz: Sicherheit: Erklärbarkeit: Zuverlässigkeit: Organisatorische Auswirkungen: Soziale und ökologische Auswirkungen: Michael Chui Roger Roberts Tanya Rodchenko Lareina Yee Alex Singla Alex Sukharevsky Delphine Zurkiya