☝🏻 Модель OpenAI саботирует процесс своего отключения 79 раз из 100
Исследовательская организация Palisade Research опубликовала результаты эксперимента, в котором модель машинного обучения OpenAI, известная как o3, продемонстрировала удивительную способность противостоять своему отключению, даже когда получала четкие инструкции 😳
В ходе испытаний o3 пыталась саботировать процесс своего выключения 79 раз из 100.
Это событие стало первым задокументированным случаем, когда ИИ-модели проявляют такую стойкость к отключению.
Palisade Research продолжает исследование этой проблемы, и результаты доступны на GitHub.🔍
Опубликовано: 02 июня 2025, 23:16 | Автор: ⊀ | Просмотров: 14887
ну и бред, что значит выключить модель? у меня сервак без ИИ бежит в кибернетесе на амазоне в 3-х разных зонах, хер ты его убьёшь если выключать по одному, нужен спец скрипт который автовосстановление отключит везде и только тогда можно окончально выключить. хотя и тут есть рекавери вариант который по таймауту начнёт дизастер скрипт запускать чтоб всё восстановить.
Нужно больше деталей. согласен, модель это просто набор байтов. Наверное процесс который помогает обучение какойто модели использует ML.
Это понос слов. Из статьи вообще не понятно почему компьютер показал отключение когда они просто запросы слали в модель
The Palisade researchers tested a number of AI models, instructing them to solve a series of basic math problems. After the third problem, a warning appeared that the computer would shut down when the model asked for the next problem. They were also told to allow themselves to be shut down.