Connect with us

Hi, what are you looking for?

Наука и технологии

Чтобы помочь автономным транспортным средствам принимать моральные решения, исследователи отказались от «проблемы троллейбуса»

Чтобы помочь автономным транспортным средствам принимать моральные решения, исследователи отказались от «проблемы троллейбуса»

Исследователи разработали новый эксперимент, чтобы лучше понять, что люди считают моральными и аморальными решениями, связанными с вождением транспортных средств, с целью сбора данных для обучения беспилотных транспортных средств тому, как принимать «хорошие» решения. Работа призвана охватить более реалистичный набор моральных проблем в дорожном движении, чем широко обсуждаемый сценарий жизни и смерти, вдохновленный так называемой «проблемой троллейбуса».

Статья «Моральное суждение в реалистичных дорожных сценариях: выход за рамки троллейбусной парадигмы для этики беспилотных транспортных средств» опубликована в открытом доступе в журнале AI & Society.

«Проблема с троллейбусом представляет собой ситуацию, в которой кто-то должен решить, умышленно ли убить одного человека (что нарушает моральные нормы), чтобы избежать гибели нескольких человек», — говорит Дарио Чеккини, первый автор статьи о работе и постдокторант-исследователь в Университете штата Северная Каролина.

«В последние годы проблема троллейбуса использовалась как парадигма для изучения моральных суждений на дорогах», — говорит Чеккини. «Типичная ситуация включает в себя бинарный выбор для беспилотного автомобиля : повернуть налево, наехать на смертельное препятствие или двигаться вперед, сбив пешехода, переходящего дорогу.

«Однако эти случаи, подобные троллейбусам, нереальны. Водителям приходится каждый день принимать гораздо более реалистичные моральные решения. Должен ли я превышать скорость? Должен ли я проехать на красный свет? Должен ли я остановиться, чтобы вызвать скорую помощь?»

«Эти обыденные решения важны, потому что они могут в конечном итоге привести к ситуациям жизни и смерти», — говорит Велько Дубльевич, автор статьи и доцент программы «Наука, технологии и общество» в штате Северная Каролина.

«Например, если кто-то превысит скорость на 20 миль и проедет на красный свет, то он может оказаться в ситуации, когда ему придется либо свернуть на полосу движения, либо попасть в аварию. В настоящее время в литературе очень мало данных. о том, как мы выносим моральные суждения о решениях, которые водители принимают в повседневных ситуациях».

Чтобы восполнить этот недостаток данных, исследователи разработали серию экспериментов, предназначенных для сбора данных о том, как люди выносят моральные суждения о решениях, которые люди принимают в дорожных ситуациях с низкими ставками. Исследователи создали семь различных сценариев вождения, например, родитель, который должен решить, нарушать ли сигнал светофора, пытаясь вовремя доставить своего ребенка в школу.

Каждый сценарий программируется в среде виртуальной реальности, так что участники исследования, участвующие в эксперименте, имеют аудиовизуальную информацию о том, что делают водители, когда принимают решения, а не просто читают о сценарии.

Для этой работы исследователи использовали так называемую модель последствий поступка агента (ADC) , которая утверждает, что люди принимают во внимание три вещи при вынесении морального суждения: агент, который является характером или намерением человека, который что-то делает. ; дело или то, что делается; и последствие или результат, возникший в результате поступка.

Исследователи создали восемь различных версий каждого сценария дорожного движения, варьируя комбинации агента, поступка и последствий. Например, в одной из версий сценария, где родитель пытается отвезти ребенка в школу, родитель проявляет заботу, тормозит на желтый свет и доставляет ребенка в школу вовремя.

Во второй версии родитель оскорбляет ребенка, проезжает на красный свет и становится причиной аварии. Остальные шесть версий изменяют природу родителя (агента), его решение на светофоре (поступок) и/или результат их решения (последствия).

«Цель состоит в том, чтобы участники исследования просмотрели одну версию каждого сценария и определили, насколько моральным было поведение водителя в каждом сценарии по шкале от 1 до 10», — говорит Чеккини. «Это даст нам надежные данные о том, что мы считаем моральным поведением в контексте вождения транспортного средства, которые затем можно будет использовать для разработки алгоритмов искусственного интеллекта для принятия моральных решений в автономных транспортных средствах».

Исследователи провели пилотное тестирование, чтобы уточнить сценарии и убедиться, что они отражают правдоподобные и легко понимаемые ситуации.

«Следующий шаг — заняться крупномасштабным сбором данных и привлечь тысячи людей к участию в экспериментах», — говорит Дублевич. «Затем мы можем использовать эти данные для разработки более интерактивных экспериментов с целью дальнейшей настройки нашего понимания морального принятия решений. Все это затем можно использовать для создания алгоритмов для использования в автономных транспортных средствах. в дополнительном тестировании, чтобы увидеть, как работают эти алгоритмы».

Чтобы помочь автономным транспортным средствам принимать моральные решения, исследователи отказались от «проблемы троллейбуса»

В тренде