🧪 Исследователи демонстрируют уязвимость ИИ моделей к «отравленным» данным

🧪 Исследователи демонстрируют уязвимость ИИ моделей к «отравленным» данным
Исследование показало, что всего 250 «отравленных» документов достаточно, чтобы нанести вред ИИ моделям размером до 13 миллиардов параметров. Это подчеркивает необходимость разработки новых методов защиты. Уязвимость таких моделей вызывает обеспокоенность в области безопасности и надежности искусственного интеллекта.