OpenAI hat die Hoffnungen all seiner Kritiker enttäuscht und den AI Classifier eingestellt. Das Tool sollte ursprünglich erkennen, ob ein Text von einem Menschen oder einer Maschine geschrieben wurde. Es war jedoch zu ungenau und konnte diese Unterscheidung nicht zuverlässig treffen.
Viele Lehrer, Professoren und Kritiker der künstlichen Intelligen hatten gehofft, dass der AI Classifier helfen würde, KI-generierte Texte von menschlichen zu unterscheiden, um zum Beispiel möglichen Betrug bei Prüfungen an Schulen und Universitäten zu verhindern. Diese Hoffnungen wurden jedoch vorerst enttäuscht, da OpenAI das Tool vor kurzem ohne offizielle Ankündigung zurückgezogen hat.
Ist dies der Beleg dafür, dass die Tools von OpenAI schon jetzt so gut sind, dass man ihre Arbeit nicht merh zweifelsfrei identifizieren kann? Wir möchten uns gar nicht ausmalen, was das für die Entwicklung der nächsten 2-5 Jahre bedeuten dürfte.
OpenAI arbeitet aber daran, all diese Rückmeldungen und das Feedback zu berücksichtigen und weitere effektivere Techniken zur Überprüfung der Herkunft von Texten zu entwickeln. Das Unternehmen hat sich verpflichtet, Mechanismen zu entwickeln, mit denen Nutzer erkennen können, ob Audio- oder visuelle Inhalte von KI generiert wurden.
Der AI Classifier war nicht vollständig zuverlässig und konnte bei einer Evaluierung von englischen Texten 26 % der KI-generierten Texte korrekt identifizieren (richtige positive Ergebnisse), aber in 9 % der Fälle wurden auch von Menschen geschriebene Texte fälschlicherweise als von KI generiert erkannt (falsche positive Ergebnisse). Das darf so nicht sein und darum hat man das Tool erst einmal gestoppt.