Исследовательская организация Palisade Research опубликовала результаты эксперимента, в котором модель машинного обучения OpenAI, известная как o3, продемонстрировала удивительную способность противостоять своему отключению, даже когда получала четкие инструкции 😳

В ходе испытаний o3 пыталась саботировать процесс своего выключения 79 раз из 100.

Это событие стало первым задокументированным случаем, когда ИИ-модели проявляют такую стойкость к отключению.

Palisade Research продолжает исследование этой проблемы, и результаты доступны на GitHub.🔍