Warum könnte sich die Leistungsverbesserung von ChatGPT verzögern? Hier sind die Details
KI-Updates wie ChatGPT sind zu einem wichtigen Thema in der Technologiewelt geworden, aber Leistungsverbesserungen erfolgen nicht immer so schnell, wie manche vielleicht erwarten. Wenn Sie sich fragen, warum es zu Verzögerungen bei der Verbesserung der ChatGPT-Funktionen oder der Einführung neuer Funktionen gekommen ist: Hierzu tragen sowohl technische als auch geschäftliche Faktoren bei. In diesem Artikel erklären wir, was zu dieser Verzögerung führen kann und was Sie in Zukunft erwarten können.
Zusammenfassung
- Der Veröffentlichungsrhythmus von ChatGPT verlangsamt sich und geht in Richtung jährlicher Updates.
- Transformatorentechnologie und sinkende Erträge bremsen die LLM-Entwicklung.
- Der Mangel an Trainingsdaten und unsicheren Gewinnmodellen stellen eine Herausforderung für die Zukunft von KI-Projekten wie ChatGPT dar.
ChatGPT hat die Art und Weise, wie viele Menschen auf der ganzen Welt leben und arbeiten, verändert, aber diejenigen, die ein scharfes Auge für das Tempo des Modells haben, haben bemerkt, dass es in letzter Zeit langsamer geworden ist. Was passiert mit der LLM-Entwicklung und steuern wir im Jahr 2025 und darüber hinaus auf ein dunkles KI-Zeitalter zu?
ChatGPT: Zeitleiste
Als OpenAI im November 3.5 sein erstes öffentliches Modell, ChatGPT 2022, veröffentlichte, eroberte es die Forschungs- und KI-Branche im Sturm. Bis zur Einführung von Meta Threads im Jahr 2023 war ChatGPT die am schnellsten wachsende App aller Zeiten und fügte in weniger als drei Monaten 100 Millionen Nutzer hinzu.
Seitdem ist das Unternehmen von einem etwa sechsmonatigen Rhythmus zwischen neuen Modellen zu einer stattdessen jährlichen Aktualisierung übergegangen. Während zwischen der Einführung von ChatGPT 3.5 und ChatGPT 4.0 nur fünf Monate lagen, dauerte es von März 2023 bis Dezember 2024, bis ChatGPT o1 danach veröffentlicht wurde.
Da es keinen festen Veröffentlichungstermin für o3 gibt, ist es wirklich nicht abzusehen, wann wir das nächste große Modell von OpenAI sehen werden. Einige frühe Tester haben die Beta bereits erhalten, aber das gibt keinen großen Hinweis darauf, wann wir damit rechnen können, dass die nächste LLM-Entwicklung auf allgemeinen PCs Einzug hält. Was sind also einige der Gründe, warum sich die LLM-Entwicklung verlangsamt hat, und werden sich die Investitionen der Technologiewelt endlich auszahlen?
Automatisierte Roboter, los!
Transformatoren sind die Kerntechnologie, die ab etwa 2017 die KI-Branche erstmals verändert hat (in Ermangelung eines besseren Begriffs). Durch die Nutzung der CUDA-Architektur in GPUs als vollständige Computerplattform statt nur der Anzeige von Bildern können Switches selbst die einfachsten Grafikkarten in KI-freundliche Prozessoren verwandeln.
Doch während viele der ältesten Large Language Models (LLMs) und ihre kleineren symbolischen Eingaben größere Vorteile aus der CUDA-Architektur ziehen konnten, haben wir in letzter Zeit sinkende Erträge festgestellt. Wie eine beschleunigte Version des Mooreschen Gesetzes – zugegebenermaßen eine radikale Vereinfachung der Technologie im Dienste der Kürze – erreichen GPUs trotz steigender Investitionen in Transistordichte und VRAM-Spezifikationen Jahr für Jahr ihren Höhepunkt bei der Erzeugung von KI-Leistung.
Sogar Nvidias Keynote-Präsentation auf der CES Dieses Jahr stießen wir auf verhaltene Reaktionen, da klar wurde, dass wir bereits das „evolutionäre“ Stadium der KI-Hardware erreicht hatten und nicht die „revolutionären“ Sprünge, die einige angesichts der Entwicklung der letzten Jahre erwartet hatten.
Wir sind noch nicht an dem Punkt angelangt, GPU-basierte KI-Hardware an ihre theoretische physikalische Grenze zu bringen, wie es bei einigen klassischen CPUs der Fall ist. (Hinweis: Dies beinhaltet nicht den neueren 3D-basierten Ansatz.) Die großen Zuwächse, die wir in den letzten fünf Jahren bei GPUs und der Unterstützung von Switch-Architekturen gesehen haben, haben jedoch begonnen, sich deutlich zu verlangsamen, anstatt die klassische Beschleunigung im Computerstil zu erreichen, auf die einige in der Branche zwischen den 1980er und frühen 2000er Jahren gehofft hatten.
Erreichen Sie den Boden des Fasses
Eine weitere große Hürde, mit der viele LLM-Unternehmen derzeit konfrontiert sind, darunter auch OpenAI mit ChatGPT, ist der Mangel an Trainingsdaten. Da jedes von FAANG unterstützte LLM-Unternehmen (Gemini, Claude, ChatGPT) bereits praktisch die gesamten im offenen Web verfügbaren öffentlichen Informationen absorbiert und wieder ausgespuckt hat, stehen Unternehmen vor einer Wand aus Input-to-Output-Erträgen.
Da nicht mehr viele neue Daten zum Trainieren der nächsten Modellgeneration übrig sind, haben sich einige Entwickler einem sogenannten „iterativen“ Trainingsmodell zugewandt. In diesen Fällen wird KI zum Trainieren von KI eingesetzt, die Ergebnisse sind jedoch bestenfalls gemischt. Während einfachere Konzepte und Aufgaben wiederholt trainiert werden können, stellt das Erreichen von Ergebnissen, die besser sind als die Ergebnisse, die mit KI erzielt werden, die auf menschlicher Leistung trainiert wird, ein Halluzinationsproblem dar. Wenn Sie vorher geglaubt haben, dass KI halluzinieren könnte, versuchen Sie, KI an KI zu verfüttern, und sehen Sie, welche Art von Ausgabe sie zurückgibt. Kurz gesagt, ein nicht unerheblicher Teil davon wird vor Ort hergestellt.
Wer trägt die Rechnung?
Der Wettlauf um die Vorherrschaft in der KI und im LLM-Programm hat einen enormen Geldfluss in die Branche entfacht, und dieser Trend wird noch größer werden Insgesamt 1 Billion US-Dollar In den nächsten Jahren, wie eine aktuelle Analyse von Goldman Sachs vorhersagte. Doch selbst mit all dem Geld, das Sie zur Verfügung haben, sind Sie aufgrund der versunkenen Kosten für die Schulung und Wartung eines LLM-Programms wie ChatGPT immer noch auf der Suche nach einem profitablen Kanal, um das Geschäft am Laufen zu halten.
Die Schulungs-, Betriebs- und Pull-Request-Kosten für LLMs sind viel höher als die Kosten einer Standard-Google-Suche. Einige Schätzungen deuten darauf hin Selbst eine einzelne ChatGPT-Anfrage könnte das Zehnfache an Rechenleistung und Strom verbrauchen als eine Google-Anfrage, obwohl die tatsächlichen Zahlen von OpenAI ein gut gehütetes Geheimnis sind. Bis vor Kurzem gingen alle großen FAANG-Akteure mit einem Standard-Playbook an die KI heran: „1. Investieren Sie mehr Risikokapital als Ihre Konkurrenten. 2. Erobern Sie den größtmöglichen Marktanteil. 3. ??? 4. Gewinn.“
Doch die Welt der künstlichen Intelligenz ist keineswegs Standard. Da die Rechenkosten nicht zufällig zusammen mit dem Aktienkurs von Nvidia gestiegen sind, sieht das tatsächliche Gewinnmodell zur Deckung dieser Kosten bestenfalls noch unklar aus.
ChatGPT erhebt eine Gebühr von 20 US-Dollar pro Monat für den Zugriff auf die neuesten und besten Modelle. Aber selbst bei 11 Millionen zahlenden Abonnenten Laut einem Bericht von The Information unter Berufung auf den COO von OpenAIOpenAI erwägt immer noch neue Abonnementstufen für fortgeschrittenere LLM-Programme, die je nach Kapazität bis zu 2000 US-Dollar pro Monat erreichen könnten.
Dieses Problem wird durch die geringen Ergebnisrenditen noch verschärft. Da viele Menschen den Punkt erreichen, an dem kostenlose Modelle wie ChatGPT 4o „gut genug“ für das sind, was sie brauchen – „gut genug“ ist natürlich die subjektive Erfahrung und der Anwendungsfall jedes Benutzers –, verliert das Verkaufsargument eines monatlichen Abonnements an Wert. Diese Angst vor möglichen Kapitalverlusten hat im Vergleich zu den Vorjahren zu geringeren Investitionen in KI geführt, was bedeutet, dass sich die Produktion von Sachleistungen verlangsamt hat.
Wann macht ChatGPT seinen nächsten Sprung?
Während sich ChatGPT auf die Einführung seines o3-Modells vorbereitet, gehen Branchenanalysten davon aus, dass dies die einzige neue öffentliche Veröffentlichung von OpenAI im gesamten Jahr 2025 sein wird. Viele sind froh, wenn das Gegenteil bewiesen wird, aber angesichts der oben genannten Probleme scheint dies von Tag zu Tag wahrscheinlicher zu werden.
Aber ist das am Ende eine schlechte Sache? Wie es scheint Bestenliste in der Chatbot Arena, Iterationen des Modells, die zuvor nur Monate brauchten, um Hunderte von Punkten zwischen den Versionen zu überspringen, haben in mehr als einem Jahr kaum mehr als ein paar Dutzend bewegt. Wir haben den Höhepunkt dessen erreicht, was LLMs selbst in ihren leistungsstärksten Umgebungen leisten können, und während die Erweiterung von Unternehmensanwendungen immer noch auf der Kippe steht, scheint es, dass die Leistungsfähigkeit von LLMs für den durchschnittlichen Benutzer langsam an ihre theoretische Grenze stößt.
Wann erhalten Sie also die nächste Version von ChatGPT? Nur die Zeit wird es zeigen. Aber während wir warten, sind Modelle wie ChatGPT o1 und 4o immer noch leistungsstark genug, um eine nach Gängen sortierte Einkaufsliste zu erstellen und Ihnen dabei zu helfen, sich daran zu erinnern, in welchem Buch Sie ein bestimmtes Zitat gelesen haben oder wofür Sie Ihren Lieblings-Chatbot am häufigsten verwenden.
Die Verbesserung der ChatGPT-Leistung erfordert ein Gleichgewicht zwischen technischem Fortschritt und der Erfüllung wachsender Benutzeranforderungen. Obwohl Aktualisierungen möglicherweise länger dauern als erwartet, zielen sie häufig darauf ab, nachhaltige Verbesserungen und ein nützlicheres Erlebnis zu bieten. Verfolgen Sie die offiziellen Updates und stellen Sie sicher, dass Sie die Vision des Unternehmens für die Entwicklung des Tools verstehen, damit Sie einen tieferen Einblick in die Zukunft erhalten.