schaf am 17. Sep. 2022 um 13:54 |  0 Kommentare | Lesezeit: 35 Sekunden

OpenAI: GPT-3-Chatbot gibt manipulierte Nachrichten aus

Chatbots sind oft über Tricks manipulierbar. Eine neuer Angriff auf das Modell GPT-3 zeigt, wie einfach das sein kann.

Sicherheitsforscher, interessierte Nutzer und wohl auch schlicht Witzbolde haben in den vergangenen Tagen einen Chatbot auf Twitter dazu gebracht, eigentlich nicht vorgesehene Mitteilungen zu posten. Bei dem Bot handelt es sich um einen Account, der dafür gedacht ist, positive Nachrichten in Bezug auf Remote-Arbeit zu verbreiten. Den Nutzern gelang es aber durch einen Trick, dem Chatbot beliebige Nachrichten zu entlocken, wie Ars Technica berichtet.

Der Bot basiert auf dem Spracherzeugungsmodell GPT-3 von OpenAI, das vielfach genutzt wird und unter anderem auch kommerziellen Kunden über eine API bereitsteht. Auf diese greift auch der betroffene Bot zu.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 3.5/5 (6 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top