Искусственный интеллект, человек и общество

Искусственный интеллект, человек и общество

Как отмечал Айзек Азимов в одном из эссе, посвященных темам его фантастических произведений, в обществе «чрезвычайно распространилась склонность видеть в роботах опасных созданий, которые неизменно уничтожают собственных создателей». Не соглашаясь с таким подходом, Азимов сформулировал «три закона роботехники», призванные обеспечить безопасность и полезность роботов для человека. Спустя всего несколько лет после выхода в свет фантастических рассказов Азимова о взаимоотношениях людей и роботов в научном лексиконе появилось выражение «искусственный интеллект» (ИИ) – оно впервые встречается в составленной в 1955 году заявке на проведение исследований на тему использования ЭВМ для «решения задач, которые в настоящее время решаются исключительно силами людей». За прошедшие с тех пор полвека работы над созданием ИИ эволюционировали в самостоятельное научное направление, включающее в себя целый ряд дисциплин, и позволили разработать множество методов, обеспечивающих искусственному интеллекту способности к восприятию, обучению, логическому мышлению и пониманию естественного языка.

«Энтузиазм в отношении ИИ несколько омрачен беспокойством по поводу возможных негативных последствий его развития».

Растущий энтузиазм человечества в отношении ИИ обусловлен целым рядом удивительных скачков в развитии способности машин к распознаванию образов благодаря использованию метода, известного как «глубинное обучение». Успехи на этом направлении подарили человеку новые утилитарные возможности, включая синхронный автоматический перевод и автомобили с функцией автопилота. Однако ученые, работающие над созданием ИИ, по-прежнему сталкиваются со множеством трудноразрешимых вопросов и не устают удивляться невероятным возможностям человеческого разума.

В обществе энтузиазм в отношении ИИ несколько омрачен беспокойством по поводу возможных негативных последствий его развития. Некоторые, унаследовав страхи столетней давности, опасаются, что разумные компьютерные системы могут эволюционировать в сверхразум и выйти из-под контроля. Других беспокоят менее отдаленные перспективы – например, вероятность того, что классификаторы баз данных, используемые при принятии серьезных решений в области здравоохранения или уголовного судопроизводства, могут действовать некорректно из-за системных ошибок и погрешностей, скрытых в толще массивов данных, что выльется в несправедливые или неверные решения. Опасения скептиков также вызывают потенциальные юридические и этические коллизии вокруг решений, принятых автоматизированными системами, сложности в понимании логики таких решений, появление новых форм слежки и связанные с этим угрозы гражданским свободам, возможность воздействия на человеческое сознание путем манипуляций с ИИ, вероятность использования ИИ в преступных целях, далеко идущие последствия военного применения ИИ, а также перспектива сокращения человеческого труда, роста безработицы и социального неравенства.

Иллюстрация к эссе Эрика Хорвица об ИИ

По мере развития науки об искусственном интеллекте чрезвычайно важно уделять внимание вопросам воздействия ИИ на человека и общество, как в ближайшей, так и в долгосрочной перспективе. Целевые исследования вкупе с постоянным наблюдением и анализом способны подвести человека к важным наблюдениям и выводам на этот счет. Широкий спектр применения ИИ в современном обществе обуславливает необходимость междисциплинарных исследований во взаимодействии с учеными и специалистами из разных областей, включая программистов, социологов, психологов, экономистов и юристов. В отношении более долгосрочных проблем вроде страха перед появлением сверхразума или враждебного человеку ИИ необходима общественная и экспертная дискуссия, способствующая лучшему пониманию вопроса. К числу перспективных областей относится работа по определению направлений развития научно-технической мысли и прогнозированию его результатов, а также сотрудничество с программистами и специалистами в области электроники для совершенствования методов обеспечения безопасности, аутентификации и отказоустойчивости автоматизированных систем.

Иллюстрация к эссе Эрика Хорвица об ИИВ качестве положительного факта следует отметить, что соответствующая работа уже ведется. В 2008 году Ассоциация по развитию искусственного интеллекта (AAAI) организовала многомесячную исследовательскую программу на тему долгосрочных перспектив развития и применения ИИ, по итогам которой была проведена конференция в конгресс-центре «Асиломар» в Калифорнии. Это мероприятие положило начало программе «Сто лет изучения искусственного интеллекта» на базе Стэнфордского университета, предполагающей проведение аналогичных исследований каждые пять лет на протяжении ста лет или дольше. Первый доклад в рамках данной программы был опубликован в прошлом году. Стоит также упомянуть научные семинары и исследовательские программы, организованные за последнее время Национальной академией наук США. В апреле прошлого года на базе двухлетних исследований был опубликован доклад о влиянии автоматизации на положение рабочей силы в США. А в начале этого года представители промышленных и научных кругов вместе с представителями гражданского общества образовали некоммерческое «Партнерство по искусственному интеллекту», задача которого заключается в выработке рекомендаций по развитию и практическому применению технологий ИИ.

Айзек Азимов в уже упомянутом здесь эссе о роботах заключает: «Я не могу согласиться с мыслью, что если знание несет в себе опасность, следует предпочесть ему неведение. Мне всегда казалось, что решение следует искать в мудрости – не отказываясь взглянуть на опасность, а учась осторожно с ней обращаться». Этот принцип всецело применим к развитию искусственного интеллекта, движущими силами которого должны выступать человеческая любознательность, научное сотрудничество и ответственный подход.

Эссе опубликовано на сайте science.sciencemag.org.