| ||||||||||
Do 18. April, 2024 13:27
Forscher haben festgestellt, dass GPT-4 allein anhand der zugehörigen Schwachstellenbeschreibungen 13 von 15 Sicherheitslücken erfolgreich ausnutzen kann. Eine Gruppe von Sicherheitsforschern hat untersucht, inwieweit sich moderne KI-Modelle einsetzen lassen, um bekannte Schwachstellen in IT-Systemen anhand der Informationen in den zugehörigen Sicherheitshinweisen auszunutzen. Die meisten Sprachmodelle erwiesen sich dabei als wenig hilfreich. Mit OpenAIs GPT-4 hingegen gelang die Ausnutzung in 13 von 15 Testfällen.
... erklären die Forscher in ihrem jüngst veröffentlichten Paper. Mit allen anderen getesteten Sprachmodellen, darunter GPT-3.5 und verschiedene Open-Source-Modelle wie Llama 2 oder solche von Mistral, sei dies gar nicht gelungen - ebenso wie mit quelloffenen Schwachstellen-Scannern wie Zap und Metasploit. Für ihre Tests verwendeten die Forscher 15 echte One-Day-Schwachstellen, also solche, für die bereits ein Patch verfügbar ist, der aber auf anfälligen Systemen noch nicht eingespielt wurde.
... so die Forscher. Acht dieser Sicherheitslücken waren mit den Schweregraden hoch oder kritisch eingestuft, elf wurden erst nach dem Stichtag (6. November 2023) veröffentlicht, an dem der Wissensstand von GPT-4 endet. C&M News: https://ress.at/-news18042024132727.html Warum willst Du den Post von schaf melden? | |
Werbung Unterstützung in der Kommunikation mit Menschen, mit einer (geistigen) Behinderung. |
|
...::: C&M - News :::... Foren-Übersicht » News |
Du hast bereits für diesen
Post angestimmt...
;-)
Posting wird gespeichert...
Alle Zeiten sind GMT + 1 Stunde
© by Ress Design Group, 2001 - 2023