Принятие решений Искусственным интеллектом

Сегодня логика принятия решений машиной, зачастую, не понятна никому.

Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA . 

Читайте продолжение в посте.


Сегодня логика принятия решений машиной, зачастую, не понятна никому.

Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.

А главной проблемой при вкушении этих плодов оказывается: 
- не точность принимаемых машиной решений, 
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.

По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data.

Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA . 
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence

Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.

Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):

1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?

Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.

Чем не сюжет для нового романа Пелевина?

P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics, написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI? 

Источник 

Отправить
Добавить

2 комментария

Ворчун

Бред какой то. Сейчас компы не обладают искусственным интеллектом. «Думает» программа. Как запрограммировали — такое решение и будет принято.

HeavenSky

1) Почему человек выбрал или предложил именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения человеком?
5) И главное – как нам исправить ситуацию, если принятое человеком решение окажется ошибочным?


Для людей это также справедливо и главное — за тысячи лет мы так и не разобрались, что с этим делать.