Nightshade: KI-Modelle vergiften, eigene Werke schützen from Heise's blog

Mit Nightshade lassen sich die Trainingsdaten großer KI-Modelle vergiften. Sie machen beispielsweise aus einer Katze einen Hund.


Source: https://www.heise.de/news/Nightshade-KI-Modelle-vergiften-eigene-Werke-schuetzen-9604398.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Heise
Added Jan 22 '24, 11:36AM

Tags

Rate

Your rate:
Total: (0 rates)

Archives