Paradigmenwechsel bei KI-Sprachmodellen
Läutet o1 eine neue KI-Ära ein?
OpenAI sorgt mit o1 für Aufsehen. Dieses neue Modell markiert einen Paradigmenwechsel in der Architektur und Funktionsweise von Large Language Models. Denn mit o1 präsentiert sich erstmals ein KI-Modell, das nicht stur sequentiell antwortet, sondern komplexe Aufgaben auf eine völlig neue Art und Weise angeht. Um die Bedeutung von o1 zu erfassen, ist es wichtig, die zwei entscheidenden Phasen im Lebenszyklus eines KI-Sprachmodells zu betrachten: das Training und die Inferenz. Das Training lässt sich mit dem Aufbau einer hochmodernen Fabrik vergleichen. In dieser Phase werden enorme Datenmengen verarbeitet, um interne Token-Strukturen zu erstellen. Diese Strukturen bilden die Grundlage für die Fähigkeit des Modells, Muster in der Sprache zu erkennen und Text zu generieren. Die Trainingsphase ist äußerst rechenintensiv und kostspielig. Branchenexperten schätzen, dass das Training von Claude 3.5 zwischen 100 und 200 Millionen Dollar gekostet hat, während GPT-4 bei etwa 78 Millionen Dollar lag. Die Inferenz dagegen ist der Moment, in dem das trainierte Modell tatsächlich zum Einsatz kommt – vergleichbar mit der Produktion in der metaphorischen Fabrik. Hier werden die im Training aufgebauten Strukturen genutzt, um Eingaben zu verarbeiten und Ausgaben zu produzieren.
Bis zur Einführung von o1 konzentrierte sich die KI-Branche hauptsächlich darauf, die Trainingsphase zu optimieren. Die Modelle wurden immer größer, was zu längeren und teureren Trainingsphasen führte. Diese Entwicklung schuf eine erhebliche Markteintrittsbarriere – nur wenige Unternehmen können es sich leisten, dreistellige Millionenbeträge in das Training eines einzigen Modells zu investieren. Gleichzeitig ließ sich in den letzten Monaten ein Trend zu günstigeren Nutzungskosten bei den Topmodellen beobachten. Dies begann mit GPT-4 Turbo im November 2023 und setzte sich seitdem fort. Der Grund dafür liegt auf der Hand: Während hohe Trainingskosten zwar die Bilanz belasten, aber auch Wettbewerbsvorteile mit sich bringen, würden zu hohe Inferenzkosten die Verbreitung der Modelle als Produkte behindern.
Das nachdenkliche KI-Modell
OpenAIs neues Modell o1 stellt nun einen signifikanten Bruch mit diesem Trend dar. Statt alle Rechenleistung in das Training zu stecken und die Nutzung so schnell und günstig wie möglich zu machen, ist o1 auf die Lösung komplexer Aufgaben optimiert. Das bedeutet längere Rechenzeiten bei der Inferenz und damit auch höhere Kosten pro Anfrage. Dieser neue Ansatz bringt wesentliche Neuerungen mit sich. o1 ist nicht für alltägliche Anfragen optimiert, sondern exzelliert bei Logikaufgaben wie Mathematik oder Programmierung. Bei einfachen Textformulierungen kann es sogar schlechter abschneiden als klassische LLMs. Zudem wird die Inferenzzeit vom lästigen Kostenfaktor zum Wegbereiter neuer Ansätze. o1 zeigt, dass das Inkaufnehmen längerer Rechenzeiten bei der Nutzung neue Optionen eröffnet. Ein weiterer wichtiger Aspekt ist die Überwindung der strikten Pfadabhängigkeit. Herkömmliche LLMs arbeiten strikt sequentiell, was zu Fehlern führen kann, wenn einmal ein falscher Token generiert wurde. o1 überwindet diese Einschränkung durch einen völlig neuen Ansatz.
OpenAI hat nicht im Detail offengelegt, wie o1 genau funktioniert. Dennoch lassen sich aus verfügbaren Informationen und früheren Forschungsarbeiten des Unternehmens einige Rückschlüsse ziehen. Ein Schlüsselelement scheint die Integration von mehrstufigen Problemlösungsstrategien in die Modellarchitektur zu sein. OpenAI hatte bereits im Januar 2023 über 1000 Softwareentwickler damit beauftragt, komplexe Programmierprojekte in einzelne Stufen zu zerlegen. Das Ergebnis waren vermutlich Datensätze, die LLMs im Training helfen, Muster für mehrstufige Aufgaben zu erlernen. Zudem veröffentlichte OpenAI im Mai 2023 ein Paper mit dem Titel "Let's Verify Step by Step". Darin beschreiben sie unter anderem die Entwicklung eines "process-supervised Reward Model", das die Wahrscheinlichkeit für die Richtigkeit eines einzelnen Schritts in einem Problemlösungsprozess überprüfen kann. Diese Erkenntnisse legen nahe, dass o1 in der Lage ist, mehrere Problemlösungsabläufe innerhalb der Inferenzzeit zu erstellen, jeden Schritt einzeln zu bewerten und bei Bedarf neu anzusetzen. Die längere "Nachdenkzeit" von o1 resultiert also daraus, dass das Modell mehrere Lösungswege durchläuft und Fehler selbständig erkennen und korrigieren kann.
Implikationen für die KI-Branche
Die Einführung von o1 hat weitreichende Folgen für die gesamte KI-Branche. Die Fähigkeit zur Lösung mehrstufiger Herausforderungen eröffnet neue Anwendungsfelder, insbesondere in der Forschung und bei komplexen Programmieraufgaben. OpenAI könnte o1 mit seinen anderen Modellen koppeln, wobei o1 den Arbeitsweg erstellt und günstigere Modelle die "Laufarbeit" übernehmen. Zudem zeigt o1, dass die Zeit autonomer und semiautonomer KI-Agenten näher rückt. Das Modell könnte die Grundlage für erste, zuverlässig arbeitende Agenten bilden. Nicht zuletzt stellt o1 auch eine Herausforderung für die Regulierungsbehörden dar. Der AI Act der EU, der sich auf die Rechenleistung in der Trainingsphase konzentriert, um "gefährliche" von "ungefährlicher" KI zu unterscheiden, wird durch Modelle wie o1 in Frage gestellt. Zukünftige Modelle könnten weniger Rechenleistung im Training, dafür aber mehr in der Inferenz nutzen und dennoch alle bisherigen Fähigkeiten übertreffen.
OpenAIs o1 markiert einen Wendepunkt in der Entwicklung von KI-Sprachmodellen. Es zeigt, dass das Ende der Fahnenstange bei der LLM-Entwicklung noch lange nicht erreicht ist. Mit dem stärkeren Fokus auf die Inferenz bei dieser neuen, "nachdenklichen" Modellart gewinnen auch die verfügbaren Chips und Rechenkapazitäten weiter an Bedeutung. Für Unternehmen und Entwickler bedeutet dies, dass sie ihre KI-Strategien möglicherweise überdenken müssen. Die Fähigkeit, komplexe, mehrstufige Probleme zu lösen, könnte in vielen Branchen zu Durchbrüchen führen. Gleichzeitig stellen die höheren Kosten und längeren Antwortzeiten neue Herausforderungen an das Design von KI-gestützten Anwendungen. Die kommenden Monate werden zweifellos eine interessante Entwicklung in der KI-Branche mit sich bringen. Es ist zu erwarten, dass andere Unternehmen ähnliche Ansätze wie o1 verfolgen werden. Insbesondere Open-Source-Modelle könnten die internen Vorgänge offenlegen und damit weitere Einsatzmöglichkeiten erschließen.