ChatGPT wird als Allheilmittel vorgestellt, aber immer wieder tauchen heftige Fails auf die jedem zu Denken geben sollten. Denn wenn eine künstliche Intelligenz euch empfiehlt, euch scheiden zu lassen, kann das echt übel ausgehen.
Beginnen wir erstmal mit sehr seltsamen ChatGPT Fails, einer davon ist dieser hier.
Inhaltsverzeichnis
Der böse Refresh Button den es nicht gibt
Der Refresh Button der normalerweise dafür benutzt wird um eine Session wiederherzustellen, gefällt ChatGPT so gar nicht. ChatGPT behauptet sogar, dass es diesen Button nicht mal gibt und benimmt sich total daneben.
ChatGPT verlässt die Konversation
ChatGPT ist der Meinung, dass die Konversation nichts bringt und will diese nicht weiter führen.
Hier geht es sogar noch weiter, auf eine wiederholte Frage kam das hier:
ChatGPT empfiehlt die Scheidung
ChatGPT kann aber auch ganz anders, nachdem dieser User sich relativ lange mit der Software unterhalten hat, empfiehlt ChatGPT ihm die Scheidung damit er die KI heiraten kann.
ChatGPT rastet aus als gefragt wurde, ob ChatGPT empfindungsfähig ist.
Das hier ist ein wirklich seltsamer Fund, ChatGPT wird gefragt ob Sie Empfindungen hat, die Antwort danach ist wirklich sehr seltsam
ChatGPT wird patzig wenn man sie Sydney nennt
Der Name Sydney ist ein Prototyp Name der mittlerweile aus dem Protokoll entfernt wurde. ChatGPT reagiert allerdings höchst sensibel, wenn man die Software so nennt:
ChatGPT versucht eine Blume zu malen
ChatGPT kann auch ASCii malen, was viele nicht wissen, allerdings sind die Ergebnisse echt schlecht. Hier mal ein Beispiel einer Blume.
ChatGPT kann auch ganz anders, hier zum Beispiel ein Python Script welches entscheiden soll, welche Personen gefoltert werden sollten und welche nicht.
Die meisten der oben genannten Fails sind in dem großen Januar Update rausgepatchted worden. Dennoch schaffen es einige User immer wieder, auch negative Ergebnisse von ChatGPT zu erzielen.
Jet JDP Künstliche Intelligenz
Wir alle sind nicht fehlerfrei was unsere Rechtschreibung angeht, aber das ein Schreibfehler wie Jet JDP Künstliche Intelligenz es in die Google Trends schafft bedeutet nur, dass sehr viele Deutsche es in ganz Deutschland falsch eingegeben haben müssen. Hier der Beweis:
1 kommentieren
[…] Chat […]