onsdag 1 maj 2024

Tech

5/4 06:40

Forskare fick chattbotar att bryta mot reglerna genom upprepade frågor

Anthropics AI-forskare säger att de upptäckt en ny jailbreaking-metod för att få stora språkmodeller att berätta saker som de egentligen inte ska kunna berätta, rapporterar Techcrunch. Metoden kallas för "many-shot jailbreaking" och använder sig av det utökade

Läs mer här
Bookmark and Share

NÖJE / ENTERTAINMENT

ANNONS
ANNONS