Получить консультацию ru RU

Этические принципы в разработке искусственного интеллекта

Этика в коде: этические принципы в разработке ИИ

Этика в коде: этические принципы в разработке ИИ

Этические аспекты пронизывают все этапы жизненного цикла искусственных интеллектуальных систем, который охватывает проектирование, исследование, развертывание, использование системы. Субъектами ИИ деятельности могут выступать любые заинтересованные лица: инженеры, государственные учреждения, программисты и прочие участники, вовлеченные в один из этапов жизненного цикла системы на основе ИИ. По большей части ответственность за этические вопросы должна лежать на их плечах, поскольку благодаря их воздействию формируется общественное восприятие и использование искусственного интеллекта. Однако существует некоторые проблемы, которые рассмотрим ниже. 

Важно понимать, что алгоритмы ИИ способны воспроизводить и усиливать предубеждения по признакам этнической принадлежности возраста или пола, могут углублять существующие формы дискриминации и стереотипные представления. Такие сценарии могут воздействовать на различные сферы жизни, от средств массовой информации до сферы труда и образования. 

Некоторые из этических проблем обусловлены тем, что ИИ способен выполнять задачи, которые ранее были характерны только для человека. В связи с этим, интеллектуальные системы наделены важной ролью в повседневной жизни человека и общества — влияют на взаимодействие с окружающей средой и экосистемами, создавая новые условия для развития детей и молодежи. Последние получают возможность формировать свое представление о мире, развиваться, критически оценивать информацию из различных источников и учиться принимать решения. 

В данном контексте, этика ИИ обычно рассматривается в 2 аспектах:

  • этические принципы, которые лежат в основе того, как ИИ принимает решения;
  • как ИИ ведет себя в реальных ситуациях, которые прямо затрагивают людей.

Первый аспект говорит о том, что когда люди создают программы для ИИ, они начинают с написания кода. Но после этого система ИИ начинать действовать практически самостоятельно, совершенствуясь, улучшая свои параметры и прочее. Когда создается система, принимающая важные решения для людей, должны быть гарантии, что она действует с учетом этических соображений. Поэтому важно внедрить этичность прямо в технологию ИИ. Однако проблема заключается в том, что моральный выбор — это нечто, что не всегда определяется четкими законами. Это больше связано с принципами, личными правилами, мировоззрением, то есть все то, что можно разделить на категории «хорошо» и «плохо». Именно в этом и состоят трудности при разработке системы ИИ – абстрактные, неформализированные понятия крайне сложно заложить в алгоритмы робота.  

Второй аспект касается того, как происходит анализ и предотвращение этических проблем, возникающих при использовании ИИ. Сюда входит: дискриминация, нарушение частной жизни, проблемы с трудоустройством, социальное неравенство, профессиональная этика самих разработчиков. Последнее заслуживает отдельное рассмотрение, поскольку требует формирование определенных рекомендаций и этических кодексов.  

В перспективе, человечество не только не откажется от использования ИИ, а, скорее всего, будет все активнее внедрять его в различные области. Эксперты из крупных компаний (Tesla, Apple, Twitter), включая основоположника нейросетей Джеффри Хинтона, призывают разработчиков ИИ временно приостановить обучение мощных систем, основанных на машинном обучении. Они считают, что такой перерыв в исследованиях необходим, чтобы минимизировать возможные риски. Некоторые высказывают опасения, что из-за огромного объема создаваемой ИИ информации люди могут столкнуться с трудностями в отличии правды от лжи. 

Очень важно установить этические стандарты для развития ИИ как можно скорее. Это поможет ограничить возможности неэтичного использования технологии и направить усилия разработчиков и законодателей в направлении, которое обеспечит максимальную безопасность и выгоду для общества. 

Этика в коде: этические принципы в разработке ИИ

Новые горизонты или как преодолеть этические вызовы в области искусственного интеллекта

Данный вопрос можно рассмотреть через призму 4 концепций: 

  1. Ответственность за принятие решения системой ИИ. 
  2. Обеспечение и регулирование прозрачности ИИ. 
  3. Вопросы конфиденциальности при использовании технологий ИИ. 
  4. Степень доверия к технологиям ИИ. 

Ответственность за принятие решения системой ИИ 

Проблема ответственности актуальна в различных областях: беспилотные автомобили, фармацевтика, медицина, образование и другие, то есть там, где человек полагается на действие ИИ. Во-первых, порой трудно восстановить фактические обстоятельства причиненного вреда, во-вторых, каждая ситуация может иметь разные решения с точки зрения закона, в третьих – отсутствие возможности конкретизировать ответственность робота, поскольку существует разная степень опасности, контролируемость его действий, а также способности к обучению. Последнее может привести к неожиданным результатам, и как учитывать этот аспект при установлении ответственности? 

Обеспечение и регулирование прозрачности ИИ 

Прозрачность ИИ необходимо для: 

  • пользователей, чтобы повысить у них уровень доверия; 
  • расследования ЧС для отслеживания причин ее возникновения. 

В тоже время, прозрачность не может быть абсолютной по ряду причин: 

  • интеллектуальная собственность (за исключением открытого кода и условий договора);
  • наличие критерий доступа  к информации (для разработчиков один уровень доступа, для менеджмента – другой).

Получается, что разъяснительная часть ИИ должна быть настроена таким образом, чтобы демонстрировать только процесс ее работы, не раскрывая всех технических деталей ее функционирования. Пользователь должен понимать всю цепочку действия алгоритма – только так можно не потерять ценность всей системы. На текущий момент объяснительная часть не реализована, что указывает на отсутствие прозрачности в объяснении принятых системой решений – результаты (ответы) предоставляются, но понять процессы, приведшие к этим результатам, не всегда легко. 

Вопросы конфиденциальности при использовании технологий ИИ 

Алгоритмы способны извлекать новую личную информацию о людях из метаданных либо анализа больших баз данных. По мере накопления большего объема информации о человеке в его цифровом профиле, владельцы алгоритмов – будь то компании, государственные организации или правоохранительные органы – способны с высокой точностью предсказывать его будущие действия, интересы, политические предпочтения и даже потенциальные способы манипуляции. Большинство людей не учитывают тот факт, что рассказывая о себе в социальных сетях они предоставляют для кого-то возможность воспользоваться этой информацией для разных целей. 

Важно определить отношение к допустимому уровню обработки персональных данных. Один из подходов к решению проблемы — разработка стандартов для создания информационных систем с этической направленностью. 

Степень доверия к технологиям ИИ

Надежность в ИИ также требует определенной стандартизации, которая бы повысила доверие ко всей системе. Разработка минимального уровня, как «отсечки» понятия надежной/ненадежной – как одно из решений. Однако важно не перегнуть планку, связав руки разработчикам, что приведет к отсутствию прорывных решений, а часть технологий уйдет в даркнет

Несмотря на развитость интеллекта у автоматизированных систем, человеческий контроль должен быть обязательно, и подготовка соответствующих специалистов должна быть максимально качественной. Смертельный случаи, связанные с автопилотом Tesla либо конвейерного робота-манипулятора тому подтверждение. 

Этика в коде: этические принципы в разработке ИИ

Стандартизация этики в ИИ 

Под стандартом понимаются определенные требования, к которым должны соответствовать любые устройства. Такой подход позволит снизить отрицательное влияние технологий на человека. 

Разработкой стандартов занимается Институт инженеров в области электроники и электротехники, объединяющий в себе специалистов из разных областей. К наиболее известным стандартам можно отнести: 

  • создание конфиденциальности данных (P7002);
  • прозрачность автономных систем (P7001);
  • управление данными студентов и детей (P7004);
  • учет необъективности алгоритма (P7003).

Думается, что на ближайшие десятилетия понятие «этичность систем» станет конкурентным преимуществом для большинства компаний. Уже сейчас некоторые производители позиционируют свое ПО как максимально этичное приложение без слежки, копирования данных и прочего. 

Новости Cleverbots

Сегодня: Суббота

27, Апрель, 2024 г, 07:45:14