Die Begeisterung für künstliche Intelligenz kennt derzeit keine Grenzen. Fast jeder, der einen Computer besitzt und sich für Neues interessiert, hat schon einmal versucht, ChatGPT, Midjourney und Co. gute Texte oder beeindruckende Grafiken zu entlocken. Der hochbezahlte Job des “Prompt Engineers” geistert derzeit durch das Internet. Es ist also viel los in Sachen KI.

Immer wieder machen aber auch Meldungen die Runde, die zeigen, wie künstliche Intelligenzen an ihre Grenzen gebracht werden können und welche Fehler sie machen. Im Februar wurde ChatGPT zur am schnellsten wachsenden Verbraucher-App der Geschichte. 100 Millionen Nutzer in weniger als 3 Monaten. Das gab es noch nie. Aber auch andere KI-Tools profitieren von dieser weltweiten Begeisterung.

ChatGPT
Allerdings gab es auch immer wieder Probleme mit den Tools und der Technologie dahinter. Im Januar wurde in den USA eine Klage gegen mehrere KI-Kunstgeneratoren eingereicht, die urheberrechtlich geschützte Werke von Künstlern ohne deren Zustimmung zum Training der KI verwendet haben sollen. Auch Chatbots hatten ihre Probleme, wie Plagiate und Ungenauigkeiten in ihren Antworten.

Derzeit muss sich ChatGPT mit Verleumdungsvorwürfen auseinandersetzen. Der Australier Brian Hood, derzeit Bürgermeister eines Vororts im Nordwesten von Melbourne, hat Klage gegen den Chatbot und dessen Entwickler OpenAI eingereicht. Grund dafür ist, dass ChatGPT fälschlicherweise behauptet hatte, Hood habe wegen Bestechung im Gefängnis gesessen. Das ist völlig falsch!

Tatsächlich hatte Hood als Whistleblower illegale Machenschaften aufgedeckt, die schließlich sogar zu einer Verurteilung führten. Hood hatte damit eine wichtige Rolle bei der Aufdeckung eines Korruptionsskandals gespielt, der zwei Unternehmen betraf, die von der Reserve Bank of Australia und dem Finanzinstitut Securency und Note Printing Australia betrieben wurden. So nämlich
Die Klage wurde eingereicht, nachdem OpenAI sich geweigert hatte, auf eine Beschwerde von Hoods Anwälten zu reagieren. Obwohl es auf der ChatGPT-Website einen Haftungsausschluss gibt, der darauf hinweist, dass die von ChatGPT bereitgestellten Informationen ungenau sein können, behauptet Hood, er sei verleumdet worden. Einige Experten glauben, dass die Probleme mit KI-basierten Chatbots auf Mängel in der Technologie zurückzuführen sind.

Tatsächlich spiegeln große Sprachmodelle wie ChatGPT oft den Stil und die Formulierungen der Texte wider, anhand derer sie trainiert wurden. Wenn solche Texte falsche Aussagen enthalten, können auch die generierten Antworten falsch sein. Einige Modelle können sogar neue Informationen erfinden, die zu dem generierten Text passen. Dies kann zu Fehlern führen, die schwerwiegende Folgen haben können, wie im Fall von Brian Hood.

Es besteht jedoch die Hoffnung, dass solche Fehler in Zukunft vermieden werden können. OpenAI hat Anfang März GPT-4 veröffentlicht, das genau bei solchen Fragen eine um 40% verbesserte Faktengenauigkeit bieten soll. Ob dies ausreicht, um ChatGPT aus der Schusslinie zu nehmen, bleibt abzuwarten.