Der Ausdruck "Nailing your colors" entstammt den Seeschlachten, in denen das Hissen der eigenen Flagge an den Mast als Zeichen für eine trotzige Weigerung, sich zu ergeben, und die Bereitschaft, bis zum letzten Mann zu kämpfen, ausdrückt. Heute steht dieser Ausdruck symbolisch für Engagement und Entschlossenheit. Attitüden, die nach wie vor wahres Unternehmertum auszeichnen und auch in Zeiten künstlicher Intelligenz erfolgsentscheidend bleiben. Denn insbesondere bei Unternehmensdaten, die entschlossen und engagiert nutzbar gemacht werden wollen, gilt: Wer A (zu KI) sagt, sollte auch B (seine Daten) im Griff haben.
Diskret oder Kontinuierlich?
Die Unterscheidung von Diskretem (Lat. discrētus = abgesondert, getrennt) und Kontinuierlichem (Lat. continuus = zusammenhängend) ist fast so alt wie die Mathematik selbst. Bereits die griechische Antike teilt die Mathematik, die Wissenschaft von den Größen, in diesem Sinne in zwei Bereiche ein: Mathematik ist zum einen Arithmetik, die Lehre von den diskreten Größen. Diskrete Maße, wie die Anzahl der Kinder in einer Familie oder Bücher in einem Regal, sind zählbar und können nur spezifische, ganze Zahlenwerte annehmen. Zum anderen ist Mathematik aber auch Geometrie, die Lehre von den kontinuierlichen Größen, also den Figuren in der Ebene oder im dreidimensionalen Raum. Kontinuierliche Maße, wie Höhe und Temperatur, können innerhalb eines Bereichs jeden beliebigen Wert annehmen und sind unendlich teilbar. Und mit diesen beiden Unterschieden im Wissensgepäck tauchen wir nun ein, in die Welt der Unternehmensdaten und der künstlichen Intelligenz:
Wir können Informationen entweder als kontinuierlichen Strom oder in diskreten Blöcken betrachten. Große Sprachmodelle (LLMs) fallen in die Kategorie der kontinuierlichen Wissensrepräsentation, während Knowledge Graphs (KGs) dem diskreten Bereich angehören. Jeder Ansatz hat seine Vorzüge, und es ist wesentlich, die Implikationen ihrer Unterschiede zu verstehen.
Große Sprachmodelle (Large Language Models, LLMs) stellen eine kontinuierliche Form der Wissensrepräsentation dar. Ein Fakt oder Konzept fließt in einem kontinuierlichen, mehrdimensionalen Raum in das nächste über. Organisationen können LLMs nutzen, um „mit ihren Dokumenten zu sprechen“; sie sind leistungsfähig und flexibel, aber nicht immer 100 % zuverlässig und manchmal unverständlich. Denn LLM-Einbettungen sind dichte, kontinuierliche, reellwertige Vektoren, die in einem hochdimensionalen Raum existieren. Man kann sie sich als Koordinaten auf einer Karte vorstellen: So wie Längen- und Breitengrade einen Standort auf einer zweidimensionalen Karte bestimmen können, weisen Einbettungen uns grob auf Positionen in einem mehrdimensionalen "semantischen Raum" hin, der aus den Verbindungen zwischen den Wörtern im Internet besteht. Da die Einbettungsvektoren kontinuierlich sind, erlauben sie eine unendliche Anzahl von Werten innerhalb eines gegebenen Intervalls, was die Koordinaten der Einbettungen "unscharf" macht. Am konkreten Beispiel: Eine LLM-Einbettung für „Schokoriegel“ wird ein mehrtausenddimensionaler kontinuierlicher Vektor sein, der zu einem Ort in einem mehrmilliardenparameter „Wort-Raum“ führt. Wenn ich die Einbettung für "Kokosnuss" zu diesem Vektor hinzufüge, werde ich in Richtung der Position des Vektors für die Marke "Bounty" gezogen. Magisch! Aber diese Magie hat ihren Preis: Man kann den Antworten nie ganz trauen. Halluzination und Kreativität sind zwei Seiten derselben Medaille.
Knowledge Graphs (KGs) hingegen sind eine diskrete Form der Wissensrepräsentation. Jedes Datenelement wird zu einem distinkten Knoten und jede Verbindung zwischen Datenelementen zu einer konkreten Kante. Zum Beispiel ist die Wikidata-URL für „Schokoriegel“ https://de.wikipedia.org/wiki/Schokoriegel und repräsentiert dameit einen diskreten Ort im "DNS + IP-Raum". Das ist zugegeben weniger flexibel und magisch, aber zuverlässig und erklärbar. Die Kombination von LLMs und KGs ermöglicht deshalb das Beste aus beiden Welten, jedoch gibt es nichts umsonst – there´s no free lunch: Es erfordert Engagement und Entschlossenheit, eine qualitativ hochwertige Ontologie für einen unternehmensweiten Knowledge Graph zu erstellen.
LLMs erfordern wenig Engagement; sie werden mit Allgemeinwissen trainiert, und Organisationen können einfach all ihre Dokumente in sie einspeisen. Für qualitativ hochwertige Antworten, die verständlich und vertrauenswürdig sind, muss jedoch an der Schicht der Informationswiedergewinnung gearbeitet werden; Dokumente und Daten müssen nach den Konzepten organisiert werden, die sie definieren. Knowledge Graphs (KGs) können dies leisten, indem sie Datenelemente Klassen innerhalb einer Ontologie zuordnen. Das wiederum benötigt allerdings Entschlossenheit zu definierten, klaren Strukturen in der Klassifizierung. Dieses Engagement ist das Schwierigste, was jede Organisation tun muss, um sich für KI bereit zu machen. Schon das Herausarbeiten der wichtigsten Klassen für Ihr Unternehmen ist alles andere als trivial, und Organisationen müssen auf allen Ebenen ontologische „Hausarbeiten“ machen. Es muss definiert werden, was ein Kunde oder ein Verkauf innerhalb einer Abteilung, eines Bereichs und der gesamten Organisation bedeutet? Es geht also um Datenabstraktion, die unterschiedliche Verpflichtungen auf verschiedenen Ebenen innerhalb der Organisationen erfordern. Das ist es, was „nailing your colors“ wirklich bedeutet!
Forscher haben lange theoretisiert, dass das menschliche Gehirn sowohl kontinuierliche als auch diskrete Informationsverarbeitung verwendet. Jüngste Forschungen deuten darauf hin, dass kontinuierliche Eingaben diskrete „Stammneuronen“ aktivieren könnten. Zum Beispiel könnte eine Person ein Foto sehen, das ein diskretes Neuron aktiviert, das spezifisch mit „Schokoriegeln“ assoziiert ist. Kontinuierliche und diskrete Ansätze zur Datenstrukturierung haben jeweils deutliche Vorzüge und Einschränkungen. Wie könnten wir dies also in unseren KI-Architekturen anwenden? Nun, jüngste Entwicklungen erlauben es, kontinuierliche LLM-Einbettungsvektoren auf Knoten und Teilgraphen abzubilden. Die Konvergenz dieser Darstellungen bietet spannende Möglichkeiten für den Fortschritt der künstlichen Intelligenz!
Wenn auch Ihr Unternehmen den Einsatz von KI-Applikationen in der Marketing Technologie plant oder den vorhandenen TechStack mit generative AI Applikationen ausbauen möchte, bieten unsere Marketing Engineers im Bereich der Requirement Engineerings sowie der nachfolgenden Orchestrierung und Implementierung von Marketing Technologie Anwendungen folgende Einstiegspunkte für Marketing Entscheider und ihre Teams an:
- Unser Marketing Automation Power Briefing vermittelt kompaktes Basiswissen über die aktuelle Anbieterlandscape an Automations-Tools und AI-gestützten Applikationen für Marketing- und Salesentscheider und ihre Teams.
- Unser Markenautomat Readiness Check findet methodisch Anwendungenspotenziale für AI-gestützte Automationen wiederkehrender Prozesse in bestehenden Marketing Strukturen.
- Mit unserem Implementation-Sprint setzen wir konkrete, klar abgezirkelte AI Lösungen – so wie zum Beispiel einen Knowledge Graph als datenbasis für ein eigenes LLM - direkt in ihren Marketing Operations um.
- In Learning Journeys zeigen Ihnen unsere Marketing Engineers die Potenziale Ihrer bestehen Martech Tools auf und helfen mit konkreten Anwendungen und Tricks, die Möglichkeiten bestehenden TechStacks optimal auszunutzen. Denn nichts ist teurer, als ungenutzte oder teilgenutzte, aber bezahlte Marketing Technologie!!!
Gern kontaktieren und fordern Sie uns!