🧠 Уязвимость LLM: 250 вредоносных документов могут исказить работу ИИ

Компания Anthropic совместно с британскими и другими академическими институтами установила, что всего 250 вредоносных документов в наборе обучающих данных могут существенно исказить работу языковых моделей. Эти документы могут заставить модель генерировать бессвязный текст при активации определенной фразой. Исследование подчеркивает важность контроля качества данных для обучения ИИ.