Достижения в цифровой сфере и, особенно, в области искусственного интеллекта поражают своими темпами. Повсеместно крупнейшие технологические компании внедряют его в свои продукты. Сегодня ИИ выполняет производственные и творческие задачи, активно используется в управлении беспилотниками, подборе персонала, судебной системе, практически во всех отраслях нашей деятельности.
Машинные технологии все более эффективно заменяют людей, успешно конкурируя с ними. Но при неумелом использовании AI способен доставить человечеству массу проблем. Поэтому на пути к четвертой промышленной революции перед разработчиками остро стоят этические вопросы, связанные с развитием искусственного интеллекта. Их задача сегодня — минимизировать риски, связанные с появлением сверхразума, научить его действовать объективно в соответствии с понятиями справедливости и моральными принципами.
Первые упоминания об искусственном интеллекте и этических вопросах уходят корнями в середину XX века, когда писатели-фантасты в своих произведениях уже пытались разработать свод этических законов для разумных роботов. Так Карел Чапек в романе «R.U.R.» задумался о гуманном обращении с роботами, а Айзек Азимов в своих произведениях «Хоровод» и «Роботы и Империя» сформулировал основные законы робототехники. В них идет речь о том, что:
В начале 2000-х годов человечество было вынуждено снова вернуться к этой теме: роботы стали массово заменять человека на производстве, появляться в повседневной жизни людей. Так в Италии в 2004 г. был проведен Международный симпозиум по робоэтике. Позднее в 2017 г. Европарламент одобрил Европейскую хартию робототехники.
В настоящее время из-за стремительного распространения дронов и боевых роботов дискуссии в мире по робоэтике опять обострились. Перед людьми стоит проблема разработки этических норм и регуляции поведения искусственного интеллекта, не имеющего моральных принципов и понимания о добре и зле. Другая важная сторона этики использования ИИ — тщательное отслеживание его результатов с последующим исправлением ошибок либо полным прекращением работы алгоритма. Искусственный интеллект должен приносить людям только пользу, исключая любой возможный вред.
Российская Федерация одной из первых приняла Национальный Кодекс этики в области использования ИИ. Документ был принят 26.10.2021 г. на посвященном данной тематике международном форуме и подписан ведущими компаниями России. В их числе такие отечественные гиганты, как СБЕР, Яндекс, МТС, Mail.ru Group, Ростелеком.
Национальный Кодекс был разработан по отдельному поручению президента страны. Также в числе первых подписантов были ЦИАН, ПАО «Газпромнефть», МГИМО, университет «Иннополис», Исследовательский университет «ВШЭ», госкорпорация «Росатом» и др. Список присоединившихся компаний продолжает непрерывно расширяться.
Специалисты в России исходят из того, что ИИ довольно опасен. Поэтому меморандум регулирует такие стороны использования систем ИИ, как:
Подписание документа проходило с помощью электронной подписи разработанного Минцифрой сервиса «Госключ». Меморандум стал началом в России добровольного саморегулирования для достижения равновесия, доверия и согласия между человеком и искусственным интеллектом.
На посвященном вопросам этики ИИ форуме ЮНЕСКО Россия стояла на позиции, что в данной области нужен полностью научный подход. Наши представители предлагали для оценки и принятия решений в сфере ИИ использовать ПО и вычислительные мощности, способные смоделировать миллионы сценариев развития. В итоге ЮНЕСКО одобрил рекомендации, данные российскими специалистами в сфере этических вопросов использования и контроля ИИ.
В мире этика искусственного интеллекта активно рассматривается во многих странах. Так в начале октября 2021 г в КНР также был принят кодекс этических принципов для ИИ. В его основе лежат принципы повышенного контроля и ограничения влияния на жизнь населения страны. В документе указывается, что граждане могут в любое прекращать взаимодействие с ИИ и сами решать принимать или нет его услуги. Несмотря на это Китай ставит цель стать лидером в разработках искусственного интеллекта к 2030 г. В КНР особое внимание уделяется доверию людей к технологиям ИИ.
В другой лидирующей по разработкам в сфере ИИ стране — США основополагающий документ по этике его использования подготовило Министерство обороны. В кодексе акцент сделан на такие этические принципы, как:
В документе отмечается, что национальная стратегия США по лидерству в области ИИ должна способствовать его инновационному использованию при защите американских ценностей, частной жизни и свобод граждан. При этом упоминается, что использование искусственного интеллекта провоцирует появление этических рисков и неясностей.
Взгляды на проблему этичного использования ИИ государств Ближнего Востока и Северной Африки отличаются от взглядов представителей технологически развитых государств и затрагивают проблему значительного цифрового неравенства. В подобных странах не только во многих местах нет интернета, но даже не хватает учебников в школах. Поэтому в ЮНЕСКО поднимаются и вопросы этичности монополизации данного рынка.
Взгляды известных личностей на проблему использования искусственного интеллекта также разделились. Часть из них видит в этом реальную угрозу будущему человечества, другие же, напротив, оптимистически оценивают открывающиеся умными технологиями возможности.
Среди первых оказался инженер и бизнесмен И. Маск. Он считает, что человечеству необходима крайняя осторожность с технологиями, так как «они потенциально более опасны, чем ядерное оружие». «С искусственным интеллектом мы призываем демона» – говорил миллиардер Маск на выступлении в Массачусетском технологическом институте.
Такой же точки зрения придерживается британский ученый-физик Стивен Хокинг. По его мнению, создание мыслящих машин представляет огромную угрозу жизни на Земле и существованию человечества: «Разработка полностью искусственного интеллекта может означать конец человеческой расы». Космолог Хокинг считает, что в определенный момент умные машины смогут заменить человечество, выиграв конкуренцию. Он допускает, что в гонке за эффективностью искусственный интеллект и роботы могут захотеть избавиться от людей.
Обе известных личности считают, что спастись люди смогут на других планетах. Среди скептиков также глава Оксфордского Института будущего человечества Ник Бостром и философ-историк Эмиль Торрес.
К другой половине можно отнести бывшего чемпиона мира по шахматам — Гарри Каспарова. Проиграв не раз компьютеру, он считает, что люди не должны сопротивляться переменам, связанным с внедрением ИИ и предоставляемым возможностям. Именно он способен определить больному диагноз более точно, чем живой врач.
Аналогичного мнения придерживается и Цзоу Цыюн (управляющий Организации по промышленному развитию ООН). Он считает, что ИИ заметно повышает эффективность производства, а при работе удаленно особенно. Технологии искусственного интеллекта увеличивают гибкость в непредвиденных ситуациях на производстве, в логистике и т. д.
Подводя итог заметим, что истина где-то посередине: многое зависит от нас самих. При этом важность разработки этических правил использования искусственного интеллекта заключается не только в целях обезопасить общество от его негативных последствий, но и в целях повышения эффективности развития умных технологий. На разработчиках в полной мере лежит ответственность за дальнейшую судьбу человечества. Свод этических норм должен максимально учитывать всевозможные будущие риски, непрерывно дополняться и меняться с учетом происходящих в сфере AI изменений.