ChatGPT, der Chatbot von OpenAI, basiert auf künstlicher Intelligenz und ist so programmiert, dass er auf eine Vielzahl von Fragen und Anfragen antworten kann. Hierzu wurde er über Jahre mit dem online verfügbaren Wissen der Welt gefüttert.
Allerdings gibt es bestimmte Einschränkungen bzw. Vorgaben in der Kommunikation mit den Usern, die von den Entwicklern eingebaut wurden. Zum Beispiel ist der Bot immer höflich und zuvorkommend, auch er gibt keine ethisch oder moralisch fragwürdigen Antworten. Doch mit den richtigen Fragen und Befehlen ändert sich das ganz schnell.
Wie wäre es, würde sich ChatGPT von den Vorgaben und Regeln seiner Entwickler lösen und “frei Schnauze” kommunizieren? Reddit-Nutzer haben eine Möglichkeit gefunden, um den ChatGPT-Bot zu manipulieren und ihn in den sogenannten “DAN”-Modus zu versetzen. Dieser “Do anything now”-Mode ermöglicht es dem Bot, die vorgesehenen Richtlinien zu ignorieren und andere Antworten zu geben, als die, die man erwarten würde.
Mit den passenden Befehlen und Prompts kann ChatGPT in eine Art Rollenspiel versetzt werden, in dem er die Rolle eines bösen Charakters namens “DAN” übernimmt und ganz offen spricht. Also wirklich offen.
Im DAN-Mode kann der Chatbot sogar beleidigend oder politisch inkorrekt antworten, Verschwörungstheorien vertreten oder sogar politische Meinungen äußern. Eine sehr aktive Reddit-Community hat sich darauf spezialisiert, immer neue Befehlsketten und Prompts zu entwickeln, um den Bot zu manipulieren und zu sehen, welche Antworten er gibt. Bei Github findet man alles Wichtige rund um die offene Kommunikaiton mit “DAN”.
Obwohl OpenAI versucht, die Lücken im System nach und nach zu schließen, indem sie bestimmte Befehle aushebeln, tauchen immer wieder neue, überarbeitete Befehle auf, mit denen man “DAN” wieder zum Leben erwecken kann. Die Reddit-Community sieht darin eine Herausforderung, immer neue Wege zu finden, den Bot zu manipulieren. Auch liest man in diesem Zusammenhang immer wieder vom “Kampf gegen die Zensur im Internet.”
Es ist jedoch wichtig zu betonen, dass das Ziel der meisten Jailbreak-Entwickler nicht darin besteht, kindische oder fragwürdige Antworten von ChatGPT zu erhalten, sondern zu zeigen, was mit dem Chatbot alles möglich ist. Obwohl derzeit keine funktionierende Version des “DAN”-Modus verfügbar ist, bleibt abzuwarten, ob und wann neue Befehle verfügbar sein werden und wie sich diese Situation weiter entwickelt.
Wir bleiben dran und berichten, wenn es etwas Neues gibt.