Generative AI

Mit künstlicher Intelligenz den Erfolg Deines Unternehmens maximieren

Dank ChatGPT wird die Nutzung generativer Künstlicher Intelligenz (KI) heute für jedermann zugänglich. Doch die Möglichkeiten dieser Technologie gehen weit über die bloße Unterhaltung hinaus. Unternehmen haben die Möglichkeit, durch den gezielten Einsatz von Generative AI ihre Effizienz zu optimieren, die Kundenzufriedenheit zu erhöhen und somit ihre gesamte Produktivität zu steigern. Du fragst Dich, ob Generative KI in Deinem Unternehmen schon jetzt einen Unterschied machen kann? Die Antwort ist ein eindeutiges Ja!

Es gibt eine Vielzahl von Anwendungsfällen, die von dieser Technologie profitieren. Egal ob es darum geht, Produktionsprozesse zu optimieren, die Kundenzufriedenheit durch personalisierte Empfehlungen zu erhöhen oder interne Verwaltungsaufgaben zu automatisieren – die Möglichkeiten sind nahezu unbegrenzt. Doch wie jede Technologie bringt auch Generative AI Herausforderungen mit sich.

Es kann zum Beispiel erforderlich sein, einige Prozesse vollständig neu zu gestalten und umfassende Schulungen für Mitarbeiter:innen durchzuführen. Zudem sollten Aspekte wie Datensicherheit und Kosten sorgfältig geprüft und abgewogen werden.

Im Folgenden geben wir einen Einblick in folgende Fragestellungen:

  • Ist Generative AI bereits heute für Dein Unternehmen von Nutzen?
  • Anwendungsfälle: Welche Prozesse und Aufgaben können durch den Einsatz von Generative AI optimiert werden?
  • Welche Herausforderungen gehen mit der Implementierung dieser Technologie einher?
  • Wie können wir Dich bei der Integration von Generative AI unterstützen?

Lohnt sich der Einsatz von Generative AI schon heute für Dein Unternehmen?

Die Anwendung von generativen Künstlicher Intelligenz-Technologien ist keineswegs eine Neuerung, die allein auf ChatGPT zurückzuführen ist. Schon im Jahr 2014 wurden die ersten wegweisenden wissenschaftlichen Studien in diesem Bereich veröffentlicht.

Mit unserer Expertise in den Feldern KI, Daten und nachhaltiger, digitaler Transformation unterstützen wir dabei, von der revolutionären Technologie der Generativen KI zu profitieren. Erlebe eine spürbare Effizienzsteigerung und Optimierung Deiner Prozesse durch intelligente Automatisierung. Generative AI-Anwendungen beseitigen repetitive Aufgaben und ermöglichen Dir und Deinen Mitarbeitenden, Fähigkeiten zielgerichtet einzusetzen.

Die DSGVO-konforme und sichere Anbindung Deiner Unternehmensdaten an eine Generative AI schafft einen unternehmensspezifischen Mehrwert und ermöglicht vielseitige Einsatzzwecke, weit über die einfache Chat-Anwendung wie ChatGPT hinaus.

Der Einsatz von Generative AI hilft dabei, sich von anderen Wettbewerbern abzuheben und die digitale Transformation erfolgreich zu meistern, um für eine nachhaltige Zukunft gerüstet zu sein.

Was ist Generative AI und welche Einsatzgebiete gibt es?

Generative AI ist eine Form des maschinellen Lernens, die mithilfe von Algorithmen Inhalte wie Texte, Bilder, Audiodateien oder andere synthetische Daten erzeugen kann. Sie ist ein Teilgebiet des „Unsupervised Machine Learning“. In dieser Disziplin werden Algorithmen verwendet, um nicht gelabelte Datensätze zu analysieren und für diese Unterteilungen abzuleiten (Clustering), deren Merkmale auf relevante Informationen zu verringern (Dimensionality Reduction) oder neue Inhalte zu generieren (Text / Image Generation). Entsprechend vielfältig wie die Einsatzgebiete sind auch die Algorithmen, die im Bereich des unsupervised ML zum Einsatz kommen. Gängige Methoden sind Clustering-Algorithmen wie k-Means, Dimensonality Reduction Algorithmen, wie die Principal Component Analysis (PCA) sowie generative Algorithmen, wie Generative Adversarial Networks (GANs), Variational Auto Encoder (VAE) und Transformer-basierte Modelle. 

Das Gegenstück hierzu bilden Ansätze des „Supervised Machine Learning“, bei dem gelabelte Datensätze genutzt werden, um neue Datenpunkte auf Basis vergangener Werte zu prognostizieren (Regression) oder die darin enthaltenen Daten in bekannte Klassen zu unterteilen (Klassifikation). Gängige Algorithmen sind die lineare oder die logistische Regression, Entscheidungsbäume (Decision Trees) oder Support Vector Machines (SVMs).

Variational Auto Encoder (VAE)

Variational Autoencoder (VAEs) repräsentieren eine besondere Kategorie generativer Modelle, die auf einen probabilistischen Ansatz zurückgreifen, um Beobachtungen im sogenannten latenten Raum, einer verdichteten Repräsentation der Daten, zu interpretieren. Sie unterscheiden sich von herkömmlichen Autoencodern durch ihre generative Natur, d.h. ihre Fähigkeit, neue Daten zu kreieren, indem sie Muster aus dem latenten Raum extrahieren.

Innerhalb der VAE-Struktur transformiert das Encoder-Netzwerk die gegebenen Eingabedaten in eine spezifische Verteilung innerhalb des latenten Raums. Anschließend transferiert das Decoder-Netzwerk Punkte aus dem latenten Raum zurück in den ursprünglichen Datenraum. Der Kerngedanke hinter dieser Methode besteht darin, dass wir eine Eingabe nicht auf einen einzigen fixierten Punkt abbilden, sondern auf eine gesamte Verteilung.

Generative Adversarial Networks (GANs)

Generative Adversarial Networks (GANs) bilden eine weitere Kategorie innerhalb der generativen Modelle. Sie setzen sich aus zwei miteinander interagierenden neuronalen Netzwerken zusammen – dem Generator und dem Diskriminator, die in einem Wettstreit miteinander stehen (daher der Begriff „adversarial“). Der Generator hat die Aufgabe, Daten zu erzeugen, die den Trainingsdaten täuschend ähnlich sehen, während der Diskriminator darauf abzielt, echte von generierten Daten zu unterscheiden.

Während des Trainingsprozesses verbessert sich der Generator kontinuierlich in der Erstellung realitätsnaher Daten, während der Diskriminator immer präziser in der Unterscheidung zwischen den Datenarten wird. Das Endergebnis ist ein Generator-Netzwerk, das in der Lage ist, überaus überzeugende Daten zu erzeugen. GANs sind dafür bekannt, einige der realistischsten von KI erzeugten Bilder zu erstellen.

Vision Transformer (ViT)

In jüngster Zeit hat eine neuartige Architektur, Vision Transformers (ViT) genannt, beachtliche Erfolge im Computer Vision Bereich erzielt. Im Gegensatz zu den meisten bisherigen Verfahren, die auf Convolutional Neural Networks (CNNs) beruhen, nutzen Vision Transformers den Vorteil des “Self-Attention”-Mechanismus aus, der ursprünglich für Aufgaben in der natürlichen Sprachverarbeitung entwickelt wurde.

Vision Transformer unterteilen im Preprocessing ein Bild in sogenannte Patches fester Größe (z.B. 16x16px), ähnlich wie ein Satz in eine Sequenz von Wörtern zerlegt wird. Diese Patches werden dann vom Transformer verarbeitet. Diese Patches werden dann dem neuronalen Netz zugeführt, das die Patches als Sequenz interpretiert und mithilfe des Self-Attention Mechanismus den globalen Kontext eines Bildes erfasst, anstatt sich nur auf lokale Merkmale zu konzentrieren.

Dieser Ansatz unterscheidet sich von traditionellen CNNs, die auf lokale rezeptive Felder ausgerichtet sind und schrittweise Informationen sammeln, um größere Bereiche zu verstehen. Transformer können langfristige Abhängigkeiten zwischen Pixeln in einem Bild verarbeiten, was zu Verbesserungen in verschiedenen Aufgaben führt. Sie sind vielseitig einsetzbar und können sowohl für diskriminative Aufgaben (wie der Bildklassifikation) als auch in generativen Aufgaben (wie der Bildsynthese) verwendet werden.

Abschließend lässt sich sagen, dass die generative KI mit Methoden wie den Variational Autoencodern, GANs und Vision Transformers potente Instrumente zur Generierung neuer Inhalte und zum Verständnis visueller Daten bietet. Mit der kontinuierlichen Weiterentwicklung und Verfeinerung dieser Technologien steht eine vielversprechende Zukunft in den Bereichen Computer Vision und KI bevor.

Generative AI im Bereich der natürlichen Sprachverarbeitung (NLP)

Für Menschen ist Sprache im Miteinander die wichtigste Form der Verständigung. Durch sie haben Menschen die Fähigkeit, ihre Gedanken und Gefühle zu teilen und eigene Ideen zum Ausdruck zu bringen. Entsprechend bedeutsam ist die Disziplin des Natural Language Processing (NLP). Diese setzt sich als Teilbereich der Informatik und insbesondere der Künstlichen Intelligenz damit auseinander, Computern die Fähigkeit zu verschaffen, Texte und gesprochene Sprache in ähnlicher Weise zu verstehen und zu erzeugen, wie Menschen es tun.

Generative Ansätze in NLP zielen darauf ab, sprachliche Inhalte wie beispielsweise geschriebene Texte, Übersetzungen oder Reden zu generieren und dabei durch ein komplexes Verständnis über linguistische Charakteristiken, wie semantische Zusammenhänge, sowie syntaktische, phonetische und morphologischer Merkmale diverse Formen der menschlichen Sprache zu imitieren.

Während früher häufig Architekturen auf Basis rekurrenter Netzwerke, wie dem Long Short-Term Memory im Bereich der natürlichen Sprachverarbeitung zum Einsatz kamen, zählt die Transformer-Architektur heute zur State-of-the-art Technologie und wird daher in den meisten Fällen verwendet.

Sprachmodelle / Language Models (LMs)

Sprachmodelle / Language Models (LMs)

Sprachmodelle bilden den Grundstein moderner NLP Anwendungen. Sie sind eine statistische Repräsentation der Struktur einer Sprache, die auf Basis eines beliebig großen Textkorpus erzeugt wird. Ein Sprachmodell kann durch verschiedene Modellierungsansätze extrahiert werden. Neben statistischen Sprachmodellen, wie beispielsweise N-Gram Modellen, die auf simplen statistischen Berechnungen beruhen, gibt es neuronale Sprachmodelle, also Modelle auf Basis neuronaler Netze, die aufgrund ihrer besseren Leistungsfähigkeit heute in den meisten Anwendungsfällen zum Einsatz kommen.

Verknüpfungen

Große Sprachmodelle / Large Language Models (LLMs)

Große Sprachmodelle (engl. Large Language Models LLMs) sind eine Erweiterung klassischer Sprachmodelle, deren neuronale Struktur eine hohe Anzahl an Gewichten (sog. weights) besitzt, die durch ein Training auf großen Mengen ungelabelter textueller Daten parametrisiert werden. Die Architektur von LLMs besteht aus einer Vielzahl an Schichten (engl. Layer), in einem neuronalen Netzwerk. Die diversen Schichten übernehmen dabei verschiedene Aufgaben innerhalb der Architektur, um in ihrer Gesamtheit als Modell Eingabetexte zu verarbeiten und neue Texte als Ausgabe zu generieren. Zu den wichtigsten Komponenten zähen das Embedding Layer, Feedforward Layer und Attention Layer. Die genaue Anordnung sowie die Anzahl der Layer und Verknüpfungen zwischen den Layer unterscheidet sich je nach Art des verwendeten LLMs.

Durch das gestiegene Interesse an LLM in den letzten Jahren, gibt es mittlerweile eine große Menge an kommerziellen und offenen Anbietern von LLMs. Hierzu zählen Google, OpenAI, Meta sowie die Stanford University, welche wiederum selbst meist einige verschiedene Architekturen und damit unterschiedliche Modelle anbieten.

Große Sprachmodelle / Large Language Models (LLMs)

Generative Pre-Trained Transformers (GPT)

Generative Pre-Trained Transformers sind Modelle, die auf der Transformer-Architektur basieren, welche 2017 von den Google Mitarbeitern Vaswani et al. in ihrer Veröffentlichung „Attention is all you need“ erstmal vorgestellt wurde. Die Transformer-Architektur besteht aus einem Verbund identischer Schichten, wobei jede Schicht jeweils zwei Unterschichten enthält: einen Multi-Head-Self-Attenton Mechanismus und ein positionsabhängiges, vollständig verbundenes Feed-Forward Netzwerk. Der Self-Attention-Mechanismus ermöglicht es dem Modell, die Bedeutung verschiedener Wörter in einem Textabschnitt zu gewichten, wenn es Vorhersagen trifft, und sorgt dafür, dass kontextuelle Abhängigkeiten in Textabschnitten effektiv erfasst werden können. Das Feed-Forward-Netzwerk hingegen wendet auf jede Position in einem gegebenen Textabschnitt eine nicht-lineare Transformation an, um Textabschnitte somit für die Übergabe von einem in das nächste Layer aufzubereiten. Der Self-Attention-Mechanismus ist eine Kernkompetenz der Transformer-Architektur. Er ermöglicht dem Modell, verschiedene Positionen in der Eingabetextsequenz simultan zu berücksichtigen und so weitreichende semantische Abhängigkeiten zu erfassen. Hierzu werden zu den einzelnen Positionen in einer Textsequenz, Gewichte basierend auf ihrer Relevanz für die jeweilige Position zugeordnet.

Konkrete Anwendungsbeispiele der Generative AI

Kundenzentrierte Supportlösung

Unsere Conversational Agent Lösung bietet personalisiertere Kundenerlebnisse und eine verbesserte Supporterfahrung. Durch die Anbindung von kunden- und unternehmerspezifischen Daten ist eine persönlichere Betreuung möglich.

Persönlicher AI-Assistent

Unsere Generative AI abstrahiert technische Systeme wie Datenbanken und ermöglicht eine nahtlose Interaktion durch natürliche Sprache. Damit können Mitarbeitende bessere, datengetriebene Entscheidungen ohne die IT-Abteilung treffen.

Optimierte Kommunikationsabläufe

Durch die automatisierte Extraktion von Fähigkeiten, Wissen und Fachgesprächen der Mitarbeitenden werden Knowledge Graphs erzeugt. Diese helfen dabei, Prozesse zu optimieren und die Zusammenarbeit zu verbessern.

Welche Herausforderungen bringt die Technologie mit sich?

Generative AI birgt für mittelständische Unternehmen zahlreiche Herausforderungen, die bewältigt werden müssen, um das volle Potenzial dieser innovativen Technologie auszuschöpfen. Eine der zentralen Schwierigkeiten besteht darin, die richtige Balance zwischen Automatisierung und menschlicher Expertise zu finden, um sowohl Effizienz als auch Qualität sicherzustellen. Die erfolgreiche Implementierung von Generative AI erfordert zudem eine Anpassung bestehender Arbeitsprozesse, um eine reibungslose Integration zu gewährleisten.

Im Unternehmenskontext ist es extrem wichtig, dass die Modelle harte, verlässliche Fakten liefern. Dies kann mit nicht angepassten Modellen wie „ChatGPT“ nicht sichergestellt werden.

Des Weiteren sind Investitionen in die notwendige Infrastruktur, die Schulung von Mitarbeitenden sowie die Auswahl geeigneter KI-Systeme entscheidend, um langfristig positive Ergebnisse zu erzielen. Datenschutz und ethische Fragestellungen im Zusammenhang mit Künstlicher Intelligenz sind weitere Herausforderungen, denen sich Unternehmen stellen müssen.

Um diesen Herausforderungen erfolgreich zu begegnen, ist es essenziell, eine umfassende Strategie für die Implementierung von Generative AI zu entwickeln und auf professionelle Beratung und Unterstützung zu setzen. So können Unternehmen die Chancen der Generative AI nutzen, um ihre Wettbewerbsfähigkeit zu stärken und zukunftsfähige Geschäftsmodelle zu etablieren.

Wie sieht die Zukunft von Generative AI aus?

Spannend bleibt, welche weiteren Entwicklungen für Generative KI zu erwarten sind und wie die Zukunft in diesem Gebiet aussieht.

Natürlich kann niemand – so auch wir nicht – vorhersagen, welche neuen Entdeckungen eintreten werden oder welche Konzepte und Ansätze dazu beitragen, dass Generativ AI noch effektiver und/oder effizienter funktioniert. Jedoch gibt es bereits einige offene Forschungsfragen und Trends, die die Wissenschaft wohl auch in den kommenden Jahren noch beschäftigen wird.

Zunächst einmal scheint der allgemeine Trend, dass Modelle für Generative AI immer größer werden, also mit immer mehr zu trainierenden Parametern versehen sind, vorbei zu sein. Dieser Ansicht ist zumindest der CEO der Firma openAI, die das Programm ChatGPT entwickelt hat (Computerzeitschrift WIRED). Stattdessen steht eine Verbesserung der Modelle durch neue Modelldesigns, Architekturen oder durch Reinforcement Learning auf Basis menschlichen Feedbacks im Vordergrund.

Andere unternehmerische und wissenschaftliche Bestrebungen zielen darauf ab, Modelle für Generative KI auch auf kleineren Computern, ohne multi-performante Grafikprozessoren (sog. GPUs) zum Laufen zu bringen. Hierzu werden Ansätze wie beispielsweise die Quantisierung von Modellparametern verprobt (research-sharing platform arXiv der Cornell University). Dies könnte einen Mehrwert insbesondere für Menschen in Entwicklungsländern bieten, deren Ressourcen an Hochleistungskapazitäten meist stark beschränkt sind, während nahezu jeder Mensch ein mittelmäßig leistungsstarkes Mobiltelefon mit sich herumträgt.

Eine Änderung, die in den nächsten Jahren insbesondere Anbieter betrifft, die Produkte und Werkzeuge auf Basis von Generative AI entwickeln, ist die Einführung eines Gesetztes über Künstliche Intelligenz in der Europäischen Union. Da dieses als Verordnung verabschiedet wird, wird dieser Rechtsakt für alle EU-Ländern verbindlich und muss von diesen in vollem Umfang umgesetzt werden. Hieraus resultiert ein Verbot von Systemen von nicht akzeptierbarem Risiko sowie regulatorische Vorgaben hinsichtlich der Qualitätssicherung von Hochrisiko-Systemen und der Transparenzpflicht anderer Systeme.

Eine der großen Limitationen von LLMs aus dem Bereich der Generativen KI ist ihr Drang zur Vervollständigung von Sätzen, welches ihrer autoregressiven Funktionalität, also der Abhängigkeit ihrer Ausgabewerte von den vorherigen Zuständen zugrunde liegt. Dieses Verhalten führt dazu, dass Texte auch dann fortgesetzt werden, wenn die darin folgenden Aussagen faktisch falsch sind. Diese Äußerungen werden auch als Halluzinationen von LLMs bezeichnet. Die Erkennung und Unterbindung von Halluzinationen ist eines der derzeit wichtigsten Forschungsfragen rund um Generative AI und zeigt, dass die Funktionalität solcher Modelle derzeit keinesfalls voll ausgereift ist.

ON-DEMAND-WEBINAR

ChatGPT im Unternehmen einsetzen

In unserem Webinar zeigen wir, wie ChatGPT die Prozesse im Unternehmen schon heute unterstützen kann. Die Folgen des Einsatzes: Die Produktivität und Kreativität der Mitarbeitenden steigt. Lade Dir das On-Demand-Webinar herunter und entdecke, wie Du ChatGPT einsetzen kannst.

Das könnte Dich auch interessieren

Datenintegration in Unternehmen: Ein Schlüssel zum Erfolg im digitalen Zeitalter

Datenintegration in Unternehmen: Ein Schlüssel zum Erfolg im digitalen Zeitalter

Durch Datenintegration kannst Du die Effizienz und Effektivität der Datenverarbeitung in Deinem Unternehmen maximieren und gleichzeitig die Datenqualität gewährleisten. Hier findest Du Best Practices.
Legacy Modernization: Die Zukunft gestalten

Legacy-Modernization: Die Zukunft gestalten, ohne die Vergangenheit zu vergessen

Die Welt entwickelt sich stetig weiter und Deine Softwaresysteme sollten das auch. Wie können Unternehmen also das Thema Legacy Modernization reibungslos und effektiv gestalten?
Business Agility

Business Agility: Ein neues Paradigma im Zeitalter der Agilität

Im digitalen Zeitalter ist Anpassungsfähigkeit Gold wert. Wie agile Prinzipien und Business Agility den Unterschied machen.

Hast Du Fragen, Anregungen oder Interesse an einer Partnerschaft zum Thema Generative AI?

Kontaktiere mich gerne per E-Mail oder vereinbare einen persönlichen Termin, in dem wir uns über unsere Ideen zu diesem hochaktuellen Thema austauschen können.

Matthias Wurdig, Director Data & AI, esentri AG

Matthias Wurdig
Director Data & AI