Forscher zeigen: So einfach lassen sich LLMs in Robotern mit einem Jailbreak missbrauchen

Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen. weiterlesen auf t3n.de

Nov 26, 2024 - 00:00
 0  0
Forscher zeigen: So einfach lassen sich LLMs in Robotern mit einem Jailbreak missbrauchen
Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen. weiterlesen auf t3n.de

Wie ist Ihre Reaktion?

like

dislike

love

funny

angry

sad

wow