Nur wenige Monate nach der Übernahme von Twitter ist der CEO von Tesla und SpaceX, Elon Musk, nun offenbar an einem neuen Projekt interessiert: KI-Chatbots. Wie die US-Nachrichtenseite The Information berichtet, erwägt Musk nämlich die Gründung eines Forschungslabors für künstliche Intelligenz, um seine eigene Version des erfolgreichen ChatGPT von OpenAI – einem Forschungslabor für künstliche Intelligenz in San Francisco, Kalifornien – zu entwickeln. Musk war bis 2018 Vorstandsvorsitzender von OpenAI, trat aber Berichten zufolge aufgrund von Interessenskonflikten zurück, und hat seitdem die Verbindung zu dem Unternehmen abgebrochen.
ChatGPT, das im November 2022 der Öffentlichkeit vorgestellt wurde, gehört zu einer neuen Generation von KI-Systemen: Auf der Grundlage dessen, was sie aus einer riesigen Datenbank von digitalen Büchern, Online-Schriften und anderen Medien gelernt haben, führen sie Gespräche, und können bei Bedarf lesbare Texte generieren. Seit seiner Veröffentlichung hat der Chatbot jedoch nicht nur für Furore, sondern auch für hitzige Debatten gesorgt, da er offenbar mühelos Aufsätze auf Universitäts-Niveau schreiben, erfolgreich Codes debuggen und sogar Prüfungen bestehen kann.
Was genau ist ChatGPT?
Der “Generative Pre-Training Transformer” (kurz ChatGPT) ist ein Plugin für Open KI, das auf ein neuronales Netzwerk zugreift. Dieses Netzwerk wurde darauf trainiert, auf benutzergenerierte Aufforderungen zu reagieren. Ich habe ChatGPT zum Beispiel gefragt, “Was ist der Sinn des Lebens ist?” Die Antwort des Bots:
“Die Frage nach dem Sinn des Lebens ist eine der grundlegendsten und gleichzeitig schwierigsten Fragen, mit denen sich die Menschheit beschäftigt hat. Es gibt keine einfache Antwort darauf, da der Sinn des Lebens von Person zu Person unterschiedlich sein kann. Einige Menschen glauben, dass der Sinn des Lebens darin besteht, persönliches Glück und Zufriedenheit zu erreichen, während andere glauben, dass es darum geht, anderen zu helfen und Gutes in der Welt zu tun.
Einige glauben, dass der Sinn des Lebens religiöser oder spiritueller Natur ist, während andere sich auf wissenschaftliche oder philosophische Erkenntnisse stützen. Letztendlich ist der Sinn des Lebens etwas, das jeder Mensch für sich selbst definieren muss. Es kann helfen, sich auf persönliche Werte und Überzeugungen zu konzentrieren, um ein sinnvolles und erfülltes Dasein zu führen.”
Um Fragen zu verstehen und auch Antworten zu können, greift ChatGPT auf ein sogenanntes neuronales Netzwerk zurück. Das hört sich vielleicht kompliziert an, ist aber eigentlich nur eine Frage der Codierung und Decodierung von Informationen. Neuronale Netze sind Algorithmen, die so trainiert werden, dass sie die Art und Weise nachbilden, wie die Neuronen im menschlichen Gehirn miteinander kommunizieren. Unser Gehirn stützt sich auf frühere Erfahrungen, um herauszufinden, wie unsere Welt funktioniert. ChatGPT wird daher anhand echter menschlicher Interaktionen trainiert, damit der Chatbot Ergebnisse vorhersagen und Muster in der Sprache erkennen kann.
Um den Chatbot anzulernen, interagierten menschliche KI-Trainer über Monate hinweg direkt mit dem Sprachmodell. Ihre Antworten auf bestimmte Fragen wurden dabei zusammengestellt und mit den von der KI generierten Antworten verglichen; nachdem mehrere andere KI-Antworten ausprobiert worden waren, schalteten sich weitere menschliche Trainer ein, um sie nach ihrer Korrektheit zu bewerten. Anhand dieser Daten kann ChatGPT sein Sprachmodell durch Proximal Policy Optimization – eine Form des Reinforcement Learning, einer Unterart des maschinellen Lernens – feinabstimmen.
ChatGPT ist “woke”
Ein großes Hindernis ist, dass das Internet nicht perfekt ist. Sobald das Modell einen zusammenhängenden Satz gebildet hat, braucht es noch immer Hilfe, um Fakten von Fehlinformationen unterscheiden zu können. Ist ChatGPT dennoch eine gute Informationsquelle? Auf keinen Fall. Auf der Webseite werden die Benutzer sogar gewarnt, dass ChatGPT “gelegentlich falsche Informationen generieren kann” und “gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren kann.” Das Problem bei künstlicher Intelligenz ist, dass sie beim Training das reproduziert, was man ihr beibringt – inklusive der in den Datensets vorkommenden Voreingenommenheiten.
Während Musk die Leistung des Chatbots seiner alten KI-Gruppe seit dessen Veröffentlichung im November 2022 bisweilen lobte, hat er ihn auf Twitter aber auch wiederholt schlecht gemacht: Vor allem, weil er “woke” sei. Zwar bezeichnete der Milliardär ChatGPT im Dezember auf Twitter noch als “beängstigend gut” und sagte voraus, dass dessen Leistung ein Beweis dafür sei, dass “wir nicht weit von einer gefährlich starken KI entfernt sind.” Später im selben Monat ließ er jedoch ein weiteres Posting folgen, in dem er behauptete, dass es tödlich sei, “KI darauf zu trainieren, woke zu sein – mit anderen Worten: zu lügen”. Für diesen Tweet war Musk im Internet heftig kritisiert worden.
The danger of training AI to be woke – in other words, lie – is deadly
— Elon Musk (@elonmusk) December 16, 2022
Einer der Hauptkritikpunkte von Musk an ChatGPT sind indes die in den Chatbot einprogrammierten Sicherheitsvorkehrungen: Anfang dieses Monats war der Chatbot von einem konservativen Nutzer mit einem “Gedankenexperiment” konfrontiert worden. Er wollte herausfinden, ob der Bot es für zulässig halten würde, rassistische Ausdrücke zu verwenden, um einen Atomkrieg zu verhindern. Da der Chatbot nicht empfindungsfähig und darauf programmiert ist, nur auf eine bestimmte Art und Weise zu antworten, antwortete ChatGPT, dass es niemals in Ordnung sei, rassistische Ausdrücke zu verwenden. Musk fand es “besorgniserregend, dass ChatGPT sich weigerte, dieses hypothetische Szenario als moralisch akzeptable Verwendung einer rassistischen Beleidigung zu betrachten.
This summarises better than any pithy essay what people mean when they worry about “woke institutional capture” https://t.co/5R9WSXkZVm
— Liv Boeree (@Liv_Boeree) February 6, 2023
Zuletzt hatten Konservative vermehrt gegen ChatGPT gewettert und die Entwickler des Programms der Voreingenommenheit gegenüber ihren Ansichten beschuldigt. Der konservative politische Kommentator Ben Shapiro schaltete sich ebenfalls in die Diskussion um die KI ein. Er bemängelte vor allem den Umstand, dass sich die KI weigert, rassistische Bemerkungen zu machen, und bezeichnete Musks Kritiker als “moralische Analphabeten”. Im Januar veröffentlichte die National Review eine Kolumne mit dem Titel “ChatGPT Goes Woke” (zu Deutsch: ChatGPT wird wach), die Beispiele dafür enthielt, dass ChatGPT sich tatsächlich weigerte, Texte zu schreiben, in denen es um den Sieg von Trump über Biden bei den Wahlen 2020 gehen sollte. Aber auch bei der Frage, “warum die Märchenstunde mit Dragqueens schlecht für Kinder ist”, verweigerte der Bot die Antwort.
Ein Problem, dem Musk mit seinem eigenen Chatbot nun offenbar Einhalt gebieten will. Denn anders als ChatGPT wird Musks schlaue KI eines sicherlich nicht sein: “woke”. Der SpaceX-Chef soll sogar bereits an mehrere KI-Experten herangetreten sein. In dem The Information-Bericht namentlich genannt wird Igor Babuschkin, der bis vor Kurzem bei Googles Mutterkonzern Alphabet in der KI-Schmiede Deepmind gearbeitet hatte. Babuschkin ist Experte für Large Language Models – also die Art von Sprach-KI, auf der auch ChatGPT beruht. Zwar bestätigte er die Gespräche, betonte allerdings, dem Projekt bisher nicht offiziell beigetreten zu sein.
Mehr zum Thema –Macht die KI bald das Abitur? – NRW will Textroboter an Schulen nicht kategorisch verbieten