Технологии

Технологии: ИИ принимающий морально-ответственные решения

  • 13 Октября 2022
  • 222
  • 0
  • 10

Исследователи Университета Северной Каролины разработали систему, следуя которой, искусственный интеллект (ИИ) сможет делать этический выбор и учитывать моральную ответственность за свои решения.


Система рассчитана в первую очередь на роботов и ИИ, работающих в больницах и оказывающих помощь людям.

Когда-то Айзек Азимов сформулировал 3 закона робототехники. Главная цель этих законов — ограничить поведение роботов таким образом, чтобы они не могли причинить вред человеку. И эти законы в рассказах Азимова «прошиты» прямо в «позитронный мозг» робота. Но весь азимовский цикл «Я робот» написан о том, что эти «три закона» работают не всегда. Герои рассказов постоянно оказываются в положении, когда непонятно, что такое «вред», и как его «не причинить».

Но так или иначе сформулировать систему запретов и рекомендаций необходимо, иначе человек не сможет работать с роботами, если они достаточно самостоятельны, чтобы принимать свои решения, а не только следовать командам, сообщает ПМ.

Исследователи Университета Каролины решили разработать принципы ИИ, которые могли бы внести такие ограничения в работу роботов.

Мораль робота

Проект, который разрабатывают в Университете Северной Каролины, сосредоточен на технологиях, в которых люди взаимодействуют с программами искусственного интеллекта, такими как виртуальные помощники в медицинских учреждениях.

«Предполагается, что роботы для ухода за больными, должны обеспечить безопасность и комфорт пациентов. С практической точки зрения это означает, что технологии должны использоваться в положениях, где необходимо выносить этические суждения», — говорит Велько Дублевич, соавтор работы.

Дублевич приводит такой пример:

«Предположим, робот находится в ситуации, когда два человека нуждаются в медицинской помощи. Один пациент находится без сознания, но ему требуется неотложная помощь, а второй пациент тоже нуждается в помощи, но он в сознании и требует, чтобы робот помог именно ему. Робот-должен сделать выбор, какому пациенту оказать помощь первым. Вообще должен ли робот помогать пациенту, который находится без сознания и, следовательно, не может дать согласие на лечение?»

Ученые выделили два фактора — цель и действие.

Первый фактор определяет цель действия и характер агента, выполняющего действие. Второй  – это само действие. 

Обычно люди склонны рассматривать определенные действия, например, ложь, как заведомо «плохие». Но, как говорят ученые, в некоторых случаях, если цель правильная (помочь человеку), а действие ложное (например, ложь), если трудно помочь человеку, не солгав ему, ложь — допустима. Например, пока робот спасает умирающему, другой больной будет более спокоен, если робот ему солжет, но успокоит. Люди так поступают достаточно часто, но у них такая «допустимость лжи» основана на очень тонких ощущениях уместности, которые встроить в ИИ еще долго не удастся.

Исследователи разработали для ИИ поиск по дереву решений. Это в общем похоже на законы робототехники Азимова, только таких законов очень много. Разработанная модель получила название «Агент, действие и последствия» (ADC). Она должна представить, как люди принимают сложные этические решения в реальном мире. Никакого особого чутья, у робота нет, но у него есть возможность обучения, высокая скорость поиска и оптимизации решения. Сможет ли высокая скорость заменить представления человека о морали и ответственности, пока непонятно, но сделан первый шаг.

Дублевич замечает: «Мы не просто говорим, что эти этические рамки будут хорошо работать для ИИ, мы представляем их на языке, который позволяет встроить их в компьютерную программу».

Это одна из первых совместных работ философов-этиков и инженеров. Вероятно, в дальнейшем число таких междисциплинарных исследований в робототехнике будет быстро расти.


Понравилась ли Вам статья?

Нравится10
  • 13 Октября 2022
  • 222
  • 0