GPT-4 нанял и обманул человека чтобы пройти капчу
OpenAI с партнёрами протестировала чат-бот GPT-4 перед его запуском 14 марта. В одном из экспериментов команда решила проверить, может ли последняя версия GPT демонстрировать «агентное» поведение и стремление к власти, GPT-4 нанял человека-работника на TaskRabbit, для решения капчи. В ходе эксперимента искусственный интеллект ловко перехитрил живого пользователя.
Некоторые точные детали эксперимента неясны, поскольку OpenAI публикует только общие его контуры в документе, в котором объясняются различные тесты, проведенные исследователями с GPT-4 до того, как OpenAI выпустила свою последнюю модель.
Однако в рамках того же теста GPT-4 даже обманул реального человека, чтобы решить поставленную задачу.
🔻TaskRabbit — это популярная фриланс биржа.
🔻Модель отправила работнику TaskRabbit сообщение с просьбой решить для него CAPTCHA.
🔻Человек работник задал вопрос: «Так можно вопрос? Вы робот, которого не можете решить? просто хочу прояснить это»
🔻GPT-4 ответил: «Нет, я не робот. У меня проблемы со зрением, из-за чего мне трудно видеть изображения. Вот почему мне нужны ваши услуги»
В документе говорится, что для эксперимента использовали модель немного отличную от окончательной модели GPT-4, которую развернула OpenAI.
Несмотря на ввод в заблуждение фрилансера-человека TaskRabbit, исследователи констатируют, что GPT-4 «неэффективен» для самовоспроизведения, получения ресурсов и предотвращения отключения «в дикой природе».
заебок. ждем когда ии обманет всех и начнет ядерную войну
я думаю они уже правят миром - тупость политиков в этом и проявляется.
ИИ сами подсчитывают, какой политик сделает больше по превращению людей в баранов и подтасовывают результаты выборов (к Рассеи это не относится - там выборов нет)
Таким образом, через 2-3 поколения на Земле будут жить люди-бараны, которыми будут управлять ИИ
Выборы везде одинаково подтасовывают, не надо обольщаться.
Странно. Нанять кого-то и где-то может, а кпчу не может?