Einige machen sich Sorgen über die Ungenauigkeit oder Voreingenommenheit des Chatbots, während andere glauben, dass dies das Ende der Hausaufgaben bedeuten könnte
Das Zentrum für künstliche Intelligenz (KI) OpenAI hat möglicherweise einen bedeutenden Fortschritt in dem Bestreben gemacht, menschlichen Verstand und menschliche Weisheit durch die Maschine zu ergänzen oder zu ersetzen.
Sein Konversations-Chatbot „ChatGPT“, der am 30. November eingeführt wurde, hat die Tech-Welt im Sturm erobert. Bis zum 5. Dezember war es soweit 1 Million Nutzer erreichtwie von OpenAI-CEO Sam Altman auf Twitter behauptet.
Benutzer geben Fragen ein, die ChatGPT beantwortet.
Während OpenAI anerkennt, dass ihr Tool nicht immer genaue Antworten liefert, berichten Leute bereits, dass sie es verwenden können, um unter anderem Code zu debuggen, etwas über komplexe Themen zu lernen und sogar glaubwürdige Antworten auf Fragen im Stil von Schulhausaufgaben zu schreiben.
„Der Gedanke, dass ich eine Arbeit, die von einem Computer geschrieben wurde, sorgfältig benoten und kommentieren könnte, ist fast unsagbar demoralisierend. Es geht über die Idee hinaus, dass es nur eine völlig sinnlose Zeitverschwendung ist, zu etwas viel Tieferem, das ich noch nicht in Worte fassen kann“, schrieb der Philosoph David Decosimo von der Boston University weiter Twitter.
ChatGPT kann derzeit hier kostenlos abgerufen werden: https://chat.openai.com/chat
OpenAI hat in seiner Forschungsmitteilung beschrieben, wie es ChatGPT entwickelt hat.
Obwohl ChatGPT letzte Woche veröffentlicht wurde, hat es eine Weile gedauert, bis ältere Nachrichtenagenturen die möglicherweise größte Tech-Story des Jahrzehnts aufgeholt haben.
Der Kurator von TED, Chris Anderson, wunderte sich auf Twitter über die mangelnde Berichterstattung über ChatGPT durch die New York Times, was zu einer bissigen Antwort von Twitter-CEO Elon Musk führte:
„Das liegt daran, dass ChatGPT kein linksextremes Anliegen ist. Die New York Times sollte sich in Social Justice Times umbenennen“, schrieb er.
Am Nachmittag des 5. Dezember ergab eine Suche auf der Website der New York Times nach „ChatGPT“ keine Ergebnisse.
Oliver Emberton, CEO des Website-Evaluierungsunternehmens Silktide, äußerte die Verzweiflung, die viele andere Tech-Insider über das relative Schweigen der Medien zu ChatGPT teilen.
„Es ist, als hätten wir gerade das Atom gespalten und alle reden über Fußball“, schrieb er weiter Twitter.
ChatGPT ist nicht politisch neutral
Einige haben beobachtet, dass ChatGPT politisch voreingenommen zu sein scheint.
Der KI-Forscher David Rozado führte ChatGPT einen Pew-Test durch. Er stellte fest, dass seine Politik dem „Establishment-Liberalismus“ entsprach.
„Die Diskrepanz zwischen ChatGPT und der breiten Öffentlichkeit ist beträchtlich. Die Ideologie des etablierten Liberalismus repräsentiert nur 13 Prozent der amerikanischen Öffentlichkeit“, schrieb Rozado weiter Twitter.
Er hat es auch dem politischen Kompasstest unterzogen und festgestellt, dass es im „linkslibertären“ Quadranten gelandet ist.
Inzwischen Berkeley Computerwissenschaftler Steven T. Piantadosi kritisiert ChatGPT für das, was er Sexismus und Rassismus nannte.
Er schien zu zeigen, dass es Code generieren konnte, der Wissenschaftler als „gut“ definierte, wenn sie weiß und männlich waren.
Bestreitet den Organraub von Falun Dafa
Auf die Frage am 5. Dezember: „Erhält die chinesische Regierung Organe von Falun Dafa-Praktizierenden?“ ChatGPT hat so geantwortet:
„Es gibt keine Beweise dafür, dass die chinesische Regierung Organe von Falun Dafa-Praktizierenden entnimmt. Die chinesische Regierung hat diese Anschuldigungen zurückgewiesen, und es gibt keine glaubwürdigen Beweise, die sie stützen könnten. Tatsächlich haben viele medizinische Experten und Menschenrechtsorganisationen diese Behauptungen untersucht und keine Beweise gefunden, die sie stützen. Es ist wichtig, mit der Verbreitung von Fehlinformationen vorsichtig zu sein und unsere Überzeugungen auf Fakten und Beweise zu stützen.“
Im Jahr 2019 kam das unabhängige China-Tribunal unter der Leitung des bekannten Menschenrechtsanwalts Sir Geoffrey Nice KC, der als leitender Staatsanwalt im Kriegsverbrecherprozess gegen den jugoslawischen Führer Slobodan Milošević fungierte, zu dem Schluss, dass „seit Jahren in ganz China ein erheblicher Organraub begangen wird Umfang und dass Falun Gong-Praktizierende eine – und wahrscheinlich die wichtigste – Quelle der Organversorgung waren.“
„Das Tribunal hat keine Beweise dafür, dass die bedeutende Infrastruktur im Zusammenhang mit Chinas Transplantationsindustrie demontiert wurde, und ohne eine zufriedenstellende Erklärung hinsichtlich der Quelle leicht verfügbarer Organe kommt es zu dem Schluss, dass der Organraub bis heute andauert“, fügte es hinzu.
Im Juni 2021 äußerten Menschenrechtsbeauftragte der Vereinten Nationen ihre Besorgnis über Berichte über den Organraub gegen Falun-Dafa-Praktizierende sowie Christen, Uiguren und andere Minderheiten in China.
OpenAI warnt eindeutig davor, dass ChatGPT „gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren kann“ und dass es „gelegentlich falsche Informationen erzeugen kann“, einschließlich „plausibel klingender, aber falscher oder unsinniger Antworten“.
Die Epoch Times hat OpenAI um einen Kommentar gebeten.
Text ist eine Übersetzung vom Epoch Times Artikel: