...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 29 mal)


Microsofts Bing-Suche mit ChatGPT beleidigt Nutzer

(15. Februar 2023/22:07)
Das neue Bing mit integriertem "KI-Co-Piloten" dürfte noch fehleranfällig sein. Viele Nutzer*innen versuchen, das System zu manipulieren.



Vor einer Woche schaltete Microsoft eine Testversion seiner Bing-Suche frei, die mit einem auf ChatGPT basierenden KI-Co-Piloten ausgestattet ist. Nutzer*innen können bis zu 1.000 Zeichen lange Fragen stellen, die dann von Bing beantwortet werden sollen.

Getestet werden kann das "neue Bing", mit dem Microsoft Googles Suche zusetzen will, von einer begrenzten Anzahl von Nutzer*innen in den USA. Viele weitere haben sich auf einer Warteliste eingetragen. Nun werden erste Beispiele bekannt, die zeigen, wie fehleranfällig das System noch ist. So soll es Nutzer*innen beleidigen und belügen und auch seine eigene Existenz infrage stellen.

Viele der aus dem Ruder gelaufenen Antworten gehen auch darauf zurück, dass Nutzer*innen versuchen, das System mit ungewöhnlichen Befehlen zu manipulieren und es dazu zu bringen, vorgegebene Regeln zu ignorieren.


Mehr dazu findet ihr auf futurezone.at


https://ress.at/microsofts-bingsuche-mit-chatgpt-beleidigt-nutzer-news15022023220756.html
© by RessServerWorks, 2024