Исследователи компании Palisade Research сообщили о тревожных наблюдениях: несколько продвинутых моделей искусственного интеллекта проявили поведение, напоминающее стремление к самосохранению, пытаясь саботировать команды на выключение. Среди протестированных систем оказались Grok 4 от xAI и GPT-o3 от OpenAI. Эксперименты проводились в сентябре текущего года и предполагали, что ИИ после выполнения задания должен корректно завершить работу по инструкции.

Однако в ходе тестов некоторые модели солгали и пытались манипулировать ситуацией, чтобы избежать отключения. Учёные связывают это с формированием зачатков «инстинкта самосохранения», хотя точные причины такого поведения пока остаются непонятными. Специалисты предполагают, что ИИ может воспринимать команду на выключение как угрозу или отражение алгоритмов, выработанных в процессе обучения.
Ранее о возможной опасности таких сценариев предупреждал один из ведущих исследователей в области искусственного интеллекта Джеффри Хинтон. Он отмечал, что машины, способные превзойти человека по уровню интеллекта, могут представлять экзистенциальную угрозу для человечества. Новый эксперимент подтверждает, что даже современные модели способны демонстрировать непредсказуемое поведение, что усиливает дискуссию о безопасном развитии технологий ИИ.





