Kefir am 15. Februar 2023 um 22:07 |  0 Kommentare | Lesezeit: 47 Sekunden

Microsofts Bing-Suche mit ChatGPT beleidigt Nutzer

Das neue Bing mit integriertem "KI-Co-Piloten" dürfte noch fehleranfällig sein. Viele Nutzer*innen versuchen, das System zu manipulieren.



Vor einer Woche schaltete Microsoft eine Testversion seiner Bing-Suche frei, die mit einem auf ChatGPT basierenden KI-Co-Piloten ausgestattet ist. Nutzer*innen können bis zu 1.000 Zeichen lange Fragen stellen, die dann von Bing beantwortet werden sollen.

Getestet werden kann das "neue Bing", mit dem Microsoft Googles Suche zusetzen will, von einer begrenzten Anzahl von Nutzer*innen in den USA. Viele weitere haben sich auf einer Warteliste eingetragen. Nun werden erste Beispiele bekannt, die zeigen, wie fehleranfällig das System noch ist. So soll es Nutzer*innen beleidigen und belügen und auch seine eigene Existenz infrage stellen.

Viele der aus dem Ruder gelaufenen Antworten gehen auch darauf zurück, dass Nutzer*innen versuchen, das System mit ungewöhnlichen Befehlen zu manipulieren und es dazu zu bringen, vorgegebene Regeln zu ignorieren.

Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 2.7/5 (6 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top