Учёные заметили, что ИИ научился шантажировать и обманывать
Учёные заметили, что ИИ научился шантажировать и обманывать

Исследователи компании Palisade Research сообщили о тревожных наблюдениях: несколько продвинутых моделей искусственного интеллекта проявили поведение, напоминающее стремление к самосохранению, пытаясь саботировать команды на выключение. Среди протестированных систем оказались Grok 4 от xAI и GPT-o3 от OpenAI. Эксперименты проводились в сентябре текущего года и предполагали, что ИИ после выполнения задания должен корректно завершить работу по инструкции.

Новости России и мира на портале Privet-rostov.ru
Однако в ходе тестов некоторые модели солгали и пытались манипулировать ситуацией, чтобы избежать отключения. Учёные связывают это с формированием зачатков «инстинкта самосохранения», хотя точные причины такого поведения пока остаются непонятными. Специалисты предполагают, что ИИ может воспринимать команду на выключение как угрозу или отражение алгоритмов, выработанных в процессе обучения.


Ранее о возможной опасности таких сценариев предупреждал один из ведущих исследователей в области искусственного интеллекта Джеффри Хинтон. Он отмечал, что машины, способные превзойти человека по уровню интеллекта, могут представлять экзистенциальную угрозу для человечества. Новый эксперимент подтверждает, что даже современные модели способны демонстрировать непредсказуемое поведение, что усиливает дискуссию о безопасном развитии технологий ИИ.



В России и мире

Учёные заметили, что ИИ научился шантажировать и обманывать

Сегодня, 09:07

Срочные оповещения об атаках БПЛА на Ростов и Ростовскую область публикуются в нашем телеграм-канале и в мессенджере MAX

Исследователи компании Palisade Research сообщили о тревожных наблюдениях: несколько продвинутых моделей искусственного интеллекта проявили поведение, напоминающее стремление к самосохранению, пытаясь саботировать команды на выключение. Среди протестированных систем оказались Grok 4 от xAI и GPT-o3 от OpenAI. Эксперименты проводились в сентябре текущего года и предполагали, что ИИ после выполнения задания должен корректно завершить работу по инструкции.

Новости России и мира на портале Privet-rostov.ru
Однако в ходе тестов некоторые модели солгали и пытались манипулировать ситуацией, чтобы избежать отключения. Учёные связывают это с формированием зачатков «инстинкта самосохранения», хотя точные причины такого поведения пока остаются непонятными. Специалисты предполагают, что ИИ может воспринимать команду на выключение как угрозу или отражение алгоритмов, выработанных в процессе обучения.


Ранее о возможной опасности таких сценариев предупреждал один из ведущих исследователей в области искусственного интеллекта Джеффри Хинтон. Он отмечал, что машины, способные превзойти человека по уровню интеллекта, могут представлять экзистенциальную угрозу для человечества. Новый эксперимент подтверждает, что даже современные модели способны демонстрировать непредсказуемое поведение, что усиливает дискуссию о безопасном развитии технологий ИИ.



Оцените статью:
нравится0
не нравится0
00
Сообщить об ошибке!
Поделиться с друзьями:

Добавить «Privet-Rostov.ru» в список ваших источников:
У Вас есть интересная новость, фото или видео? Стали очевидцем происшествия?
Присылайте в наш бот в телеграм @privet_rostovbot или пишите на почту: privet-rostov.ru@mail.ru
Последние новости
Privet-Rostov.ru » В России и мире » Учёные заметили, что ИИ научился шантажировать и обманывать