Anthropic: Nutzer sollen Jailbreak-Schutz für KI-Chatbot auf die Probe stellen from Heise's blog
Anthropic hat ein Filtersystem entwickelt, das Antworten auf unzulässige KI-Anfragen verhindern soll. Nun sind die Nutzer gefordert, die Filter zu testen.
The Wall