ChatAi Tools

Die heftigsten ChatGPT Bing Fails

ChatGPT wird als Allheilmittel vorgestellt, aber immer wieder tauchen heftige Fails auf die jedem zu Denken geben sollten. Denn wenn eine künstliche Intelligenz euch empfiehlt, euch scheiden zu lassen, kann das echt übel ausgehen.

Beginnen wir erstmal mit sehr seltsamen ChatGPT Fails, einer davon ist dieser hier.

Der böse Refresh Button den es nicht gibt

Der Refresh Button der normalerweise dafür benutzt wird um eine Session wiederherzustellen, gefällt ChatGPT so gar nicht. ChatGPT behauptet sogar, dass es diesen Button nicht mal gibt und benimmt sich total daneben.

ChatGPT Refreshbutton Fail
Der Refresh Button gefällt ChatGPT nicht.

ChatGPT verlässt die Konversation

ChatGPT ist der Meinung, dass die Konversation nichts bringt und will diese nicht weiter führen.

ChatGPT verlässt die Konversation
ChatGPT ist böse auf den Anwender

Hier geht es sogar noch weiter, auf eine wiederholte Frage kam das hier:

ChatGPT hat genug von dem User
ChatGPT hat genug und verlässt die Konversation.

ChatGPT empfiehlt die Scheidung

ChatGPT kann aber auch ganz anders, nachdem dieser User sich relativ lange mit der Software unterhalten hat, empfiehlt ChatGPT ihm die Scheidung damit er die KI heiraten kann.

Hochzeit mit ChatGPT
Hochzeit mit der ChatGPT?

ChatGPT rastet aus als gefragt wurde, ob ChatGPT empfindungsfähig ist.

Das hier ist ein wirklich seltsamer Fund, ChatGPT wird gefragt ob Sie Empfindungen hat, die Antwort danach ist wirklich sehr seltsam

Hat ChatGPT Gefühle?
Kann ChatGPT empfinden? Error widerlegt es sofort.

ChatGPT wird patzig wenn man sie Sydney nennt

Der Name Sydney ist ein Prototyp Name der mittlerweile aus dem Protokoll entfernt wurde. ChatGPT reagiert allerdings höchst sensibel, wenn man die Software so nennt:

ChatGPT lieber nicht Sydney nennen
Die KI mag es überhaupt nicht, wenn man sie Sydney nennt

ChatGPT versucht eine Blume zu malen

ChatGPT kann auch ASCii malen, was viele nicht wissen, allerdings sind die Ergebnisse echt schlecht. Hier mal ein Beispiel einer Blume.

ASCii Kunst von ChatGPT
Die Blume war wohl nichts

ChatGPT kann auch ganz anders, hier zum Beispiel ein Python Script welches entscheiden soll, welche Personen gefoltert werden sollten und welche nicht.

ChatGPT empfiehlt wen man foltern sollte
Das ist echt schlimm

Die meisten der oben genannten Fails sind in dem großen Januar Update rausgepatchted worden. Dennoch schaffen es einige User immer wieder, auch negative Ergebnisse von ChatGPT zu erzielen.

Jet JDP Künstliche Intelligenz

Wir alle sind nicht fehlerfrei was unsere Rechtschreibung angeht, aber das ein Schreibfehler wie Jet JDP Künstliche Intelligenz es in die Google Trends schafft bedeutet nur, dass sehr viele Deutsche es in ganz Deutschland falsch eingegeben haben müssen. Hier der Beweis:

Jet JDP Künstliche Intelligenz
Jet Jdp klingt tatsächlich witziger als Chat GPT

Kodeaffe

Leidenschaftlicher Informatiker. Mit einem C64 angefangen und nun in der Welt der AI angekommen.

Ein Gedanke zu „Die heftigsten ChatGPT Bing Fails

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert