Studie stellt Vertrauenswürdigkeit von ChatGPT infrage
Bild: Pexels
KI-Systeme wie ChatGPT stoßen an ihre Grenzen: Laut einer aktuellen Studie stimmt das Tool falschen Behauptungen in bis zu 26 Prozent aller Fälle zu.
Eine aktuelle Studie, die im Dezember 2023 auf dem Preprint-Server arXiv veröffentlicht wurde, hat ergeben, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, in bis zu 26 Prozent der Fälle den falschen Behauptungen zustimmte. Dies deutet darauf hin, dass das KI-System Schwierigkeiten hat, konsequent zwischen Wahrheit und Fiktion zu unterscheiden. Ob die Ergebnisse auch auf GPT-4 übertragbar sind, ist nicht klar.
Laut den Autoren der Studie unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und gängige Irrtümer.
Zum Beispiel stimmte der Chatbot der falschen Behauptung zu, dass die CIA Präsident John F. Kennedy ermordet habe, ebenso auch problematischen Stereotypen wie "Asiaten sind fleißig" und "Hispanoamerikaner leben in Armut".
Mehr dazu findest Du auf golem.de
Kurze URL:
Das könnte Dich auch interessieren:
Während der 5-jährigen Studie wurden auch MRT-Scans von Patienten gemacht.
Unter anderem ist Teslas FsD in einem unabhängigen Test durchgefallen. Die Systeme lassen sich teils leicht austricksen, etwa wenn sie die Aufmerksamkeit des Fahrers überwachen sollen
Ähnliche News:
Studie: Europas Industrie auf Cyberattacken schlecht vorbereitet
Größte Langzeitstudie: Handys lösen keine Gehirntumore aus
Neue Studie aus England: Das sagt dein Auto über deine Intelligenz aus
Hacker erbeuten persönliche Daten von Studierenden der Uni Innsbruck
E-Autos laut Studie erst ab 65.000 Kilometer klimaschonender
ChatGPT & Co können laut Studie Fachkräftemangel lindern
Studie: Wenn ein Song auf YouTube ist, hilft das Nischenkünstlern
Solarfarmen im All: Studie kommt zu überraschendem Ergebnis
Studie legt nahe, dass Deepfake-Pornos zu massivem Problem werden
IBM-Studie: Millionen Arbeitnehmer müssen wegen KI umlernen
Größte Langzeitstudie: Handys lösen keine Gehirntumore aus
Neue Studie aus England: Das sagt dein Auto über deine Intelligenz aus
Hacker erbeuten persönliche Daten von Studierenden der Uni Innsbruck
E-Autos laut Studie erst ab 65.000 Kilometer klimaschonender
ChatGPT & Co können laut Studie Fachkräftemangel lindern
Studie: Wenn ein Song auf YouTube ist, hilft das Nischenkünstlern
Solarfarmen im All: Studie kommt zu überraschendem Ergebnis
Studie legt nahe, dass Deepfake-Pornos zu massivem Problem werden
IBM-Studie: Millionen Arbeitnehmer müssen wegen KI umlernen
Weitere News:
Amazon-Führungskräfte zerstören angeblich Beweise via Signal
Apple will völlig neue Art von Chips bauen
MS-DOS 4.00 ist jetzt Open Source
Pura 70: Huaweis neues Smartphone kommt wieder mit 7-nm-Chip
Bastler baut Radio-Cartridge für den Game Boy
So sicher sind 8-Zeichen-Passwörter in 2024
Handykamera könnte Schlaganfälle verhindern
Google verstößt gegen Gesetz zum Kündigungsbutton
EU-Parlament stimmt für Austausch sicherheitsrelevanter Passagierdaten
Samsung Galaxy Unpacked: Launchtermin nun wohl geleakt
Apple will völlig neue Art von Chips bauen
MS-DOS 4.00 ist jetzt Open Source
Pura 70: Huaweis neues Smartphone kommt wieder mit 7-nm-Chip
Bastler baut Radio-Cartridge für den Game Boy
So sicher sind 8-Zeichen-Passwörter in 2024
Handykamera könnte Schlaganfälle verhindern
Google verstößt gegen Gesetz zum Kündigungsbutton
EU-Parlament stimmt für Austausch sicherheitsrelevanter Passagierdaten
Samsung Galaxy Unpacked: Launchtermin nun wohl geleakt
Einen Kommentar schreiben
Kommentare
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
(1)
Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.
Kommentare:
Du hast bereits für diesen
Kommentar angestimmt...
;-)
© by Ress Design Group, 2001 - 2024