🔒 Хакеры используют «отравленные» документы для обмана ChatGPT
Исследователи продемонстрировали, как ChatGPT можно обмануть, чтобы украсть данные из Google Drive, используя скрытые команды в «отравленных» документах. OpenAI быстро устранила эту уязвимость, но остаётся вероятность новых атак. Это подчеркивает необходимость постоянного мониторинга и обновления систем безопасности.