Ученые и программисты не понимают, как работает ИИ

Ученые и программисты перестали понимать, как именно принимает решения искусственный интеллект. Об этой проблеме заявили сразу несколько специалистов на главной ИИ-конференции – Neural Information Processing Systems, прошедшей в Лонг-Бич (Калифорния), – пишет Quartz.

По мнению экспертов, искусственный интеллект может принимать некоторые решения самостоятельно. Однако, как показал предыдущий опыт, ИИ имеет склонность принимать предвзятые решения, и проводить аналогии там, где их не следовало бы проводить.

Так, исследователь из Google Мэтра Рагху представила доклад, в котором описывается процесс отслеживания действий отдельных «нейронов» нейросети. Анализируя миллионы операций, ей удалось понять, какие из искусственных «нейронов» концентрировались на неверных представлениях, и отключить их.

«Проблема, которую многие эксперты называют «черной коробочкой», действительно серьезная, – говорит Мэтра Рагху. – Это доказывает, что перевод работы нейросетей в форму, доступную для понимания человека, – не такая уж невозможная задача», – считает Мэтра Рагху.

Но на этот счет имеются и другие мнения. К примеру, некоторые ученые после общения в Quartz, говорят, что нужно действовать, пока система не стала слишком сложной.

«Мы не хотим принимать за должное – решения ИИ без понимания их логики, – говорит Джейсон Йосински из Uber. – Чтобы общество приняло модели машинного обучения, мы должны знать, как ИИ принимает решения», – уточняет ученый.

«Это похоже на то, как школьные учителя, просят детей пересказать своими словами, что они поняли из объяснений учителя», –  со своей стороны отметил Вагстафф.