Obwohl Google bei der Entwicklung von Large Language Models (LLMs) Pionierarbeit leistete, hielt das Unternehmen die Technologie zu lange zurück. Das gab Mitgründer Sergey Brin jetzt beim All-In Summit zu, wie das Finanzportal Benzinga berichtet.
„Wir waren zu zaghaft, um [Sprachmodelle] einzusetzen“, erklärte Brin laut Benzinga – und das, obwohl Google sie mit dem legendären „Transformer“-Paper (Attention Is All You Need) schon 2017 quasi erfunden habe. Der Grund: Man fürchtete sich vor Fehlern und peinlichen Situationen.
Dabei seien die Modelle zwar nicht perfekt, aber „unglaublich mächtig“, betonte der Google-Mitgründer. Sie könnten Aufgaben übernehmen, für die man sonst lange Lernphasen bräuchte. Laut Benzinga sprach sich Brin dafür aus, LLMs zur öffentlichen Erprobung freizugeben, statt auf eine Ideallösung zu warten.
Googles zögerliche Gangart sorgte bereits für Kritik: Wie Benzinga anmerkt, sah Investor Gene Munster den Konzern im Mai beim Thema KI sechs Monate hinter OpenAI, dem Entwickler von ChatGPT. Auch ein langjähriger Google-Mitarbeiter bemängelte dem Bericht zufolge, KI-Projekte würden eher von „Panik“ als von Nutzerinteressen getrieben.
Fest steht: Im Wettrennen um die Vorherrschaft bei Sprachmodellen kann Perfektion nicht der Maßstab sein. Vielleicht hätte etwas mehr Risikobereitschaft Google einen Vorsprung verschafft. Jetzt bleibt abzuwarten, wie der Konzern den Rückstand auf OpenAI wettmacht.
Folge jetzt unserem WhatsApp-Kanal. Info: *provisionierte Affiliate-Links.