KI-Risiken melden: Warum ein früherer OpenAI-Mitarbeiter eine Sicherheitshotline vorschlägt
KI-Modelle unterlaufen vor ihrer Veröffentlichung eine Reihe von Tests, um ihre Sicherheit einzuschätzen – doch stets bleibt ein Restrisiko. Neben einer KI-Sicherheitshotline ist ein weiterer Ansatz denkbar, damit auch Mitarbeiter:innen großer Tech-Firmen ihre Sicherheitsbedenken anbringen können.weiterlesen auf t3n.de
Wie ist Ihre Reaktion?