Anthropics AI-forskare säger att de upptäckt en ny jailbreaking-metod för att få stora språkmodeller att berätta saker som de egentligen inte ska kunna berätta, rapporterar Techcrunch. Metoden kallas för "many-shot jailbreaking" och använder sig av det utökade
Läs mer här