OpenAI´s neuste Version heißt GPT-3 und ist das leistungsfähigste Sprachmodell, das derzeit am Markt ist. Also „fast am Markt“, denn leider gibt es die Beta-Version derzeit nur für Entwickler und auf Einladung. Es ist zu einem späteren Zeitpunkt geplant, das Tool als kostenpflichtiges Abo über eine Cloud anzubieten.
Schon die Vorgängerversion GPT-2 konnte bereits überzeugende Textströme in verschiedenen Stilen ausspucken, wenn sie mit einem einleitenden Satz dazu aufgefordert wurde. Auch diese Version ist mittlerweile nicht mehr ganz kostenlos nutzbar, aber unter www.inferkit.com stellt Adam King eine Demo zur Verfügung.
Die neuste Version GPT-3 jedoch ist nochmal ein großer Sprung nach vorn. Das Modell hat 175 Milliarden Parameter, verglichen mit den bereits gewaltigen 1,5 Milliarden von GPT-2. Und bei Sprachmodellen gilt tatsächlich „Size matters“. Mittlerweile gibt es Kurzgeschichten, Lieder, Pressemitteilungen und technische Handbücher, die mit Hilfe der KI erstellt wurden. Mit verhältnismäßig kleinen Datensätzen kann GPT-3 außerdem auf bestimmte Aufgaben und Themen spezialisiert werden – dieses sogenannte Few Shot Learning ist neben dem größeren Umfang des KI-Modells der eigentliche Durchbruch bei GPT-3. So gibt es aktuell ein Anwendungsbeispiel als Programmierhilfe, bei der „Plain English“ in programmierten Code übersetzt wird (Beispiel: https://debuild.co; Registrierung notwendig).
Wem es dämmern sollte …
Der Webentwickler Sharif Shameem hat zum Beispiel gezeigt, dass er GPT-3 so optimiert hat, dass es HTML statt natürlicher Sprache erzeugt, und dass er es dazu bringen kann, Webseiten-Layouts zu erstellen, indem er ihm Eingabeaufforderungen gibt wie „eine Schaltfläche, die wie eine Wassermelone aussieht“ oder „großer Text in Rot“, auf dem - WILLKOMMEN ZU MEINEM NEWSLETTER - steht, und eine „blaue Schaltfläche“, auf der „Abonnieren“ steht. Sogar der legendäre Coder-Pionier John Carmack, der die 3D-Computergrafik in frühen Videospielen wie Doom mit entwickelt hat und jetzt den CTO von Oculus VR berät, gibt genervt zu: „Die jüngste, fast zufällige Entdeckung, dass GPT-3 eine Art von Code schreiben kann, erzeugt ein leichtes Frösteln“. Divendämmerung also auch bei Geeks, Nerds und Codern?
Was genau in der GPT-3 vor sich geht, ist wie bei jeder künstlichen Intelligenz nicht wirklich klar. Aber was es gut zu können scheint, ist „monkey work“ zu eliminieren. Denn wie oft werden Stunden über Stunden für das Texten von „Erlernbarem“ benötigt? Der Rechtsanwalt Jason Morris hat auf GPT-3 Basis einen Übersetzer von Umgangssprache in Juristensprache entwickelt. Das wird das eingängige Kanzleigeschäftsmodell, welches Anwaltsstunden in Rechnung stellt kräftig disruptieren (mehr dazu unter finden Sie HIER).
Coder, Rechtsanwälte, Übersetzer …
Berufsgruppen, bei denen es um die Erstellung von Texten und Zeilen geht, wird GPT-3 helfen, einen neuen Fokus für Effizienz zu finden. Bei den Kreativen aus der bunten Werbewelt wird es eher auf einen darwinistischen Auswahlprozess zulaufen. Denn das „Tagesgeschäft“ mit dem „ideenreichen“ Texten und Bebildern wird zukünftig wohl eher von einer KI wie GPT-3 erledigt. Allein der wirtschaftliche Druck auf Auftraggeber Seite wird dafür sorgen. Selbst Art Direktoren mit dem vermeintlichen Auge für das richtige Bild sollten sich „Image GPT“ – eine Bilder Version von GPT-2 - anschauen (https://openai.com/blog/image-gpt/). Vielleicht dämmert es ja dann.
P.S.: Wir nutzen in unserer Agenturgruppe als einer der ersten in Europa GPT-2 im Tagesgeschäft der Content Entwicklung schon länger. Ferner arbeiten wir aktuell mit Hochdruck an einer GPT-3 Schnittstelle für unser selbst entwickeltes Content Management Tool ACTICONT. Ziel wird es sein, mittels Few-Shot-Learning die Content Generierung und Anreicherung von der derzeitigen Teilautomatisierung auf einen Vollautomatischen Prozess upzugraden. Gern registrieren wir Sie für eine persönliche Beta Version hier: