А.Нальгин (a_nalgin) wrote,
А.Нальгин
a_nalgin

Categories:

О тесте на человечность для автопилота Tesla

TeslaAuto

Вся блогосфера загудела, что твой клаксон: первый человек стал жертвой автопилота от компании Tesla Motors. Но если вы думаете, будто дальше пойдут дешёвые спекуляции на тему самоуправляемых машин-убийц, то ошибётесь. При всей трагичности этого громкого происшествия, подобные инциденты и жертвы, к сожалению, неизбежны. Несмотря на то, что инженерная мысль усиленно работает сейчас над тем, как этого избежать.

Автопилоты совершенствуются и прогремевший случай внесёт свою лепту в этот процесс. Но вот само это совершенствование порождает вопросы намного более важные, чем незапрограммированная дорожная ситуация. Потому что речь идёт ни много, ни мало о программировании будущих аварий и новых жертв. О том, что роботам-водителям придётся решать, кому из людей сохранить жизнь и здоровье, а кем пожертвовать в критической ситуации.

Надо сказать, и для человека эта тема - тёмный лес. Моральные установки пересекаются и накладываются друг на друга, а ещё в дело порой вступают самые разные инстинкты (не только самосохранения), и всё это замешивается в причудливый конгломерат вариантов выбора. Последний чаще всего делается всё же случайно.

Однако при программировании автопилотов случайностям места нет. Разработчики ПО вынуждены будут закладывать моральные дилеммы в чёткие и однозначные алгоритмы поведения на дорогах.

В этом смысле один очень интересный эксперимент затеяли в MIT. Фактически там каждый может почувствовать себя роботом и сделать нелёгкий выбор.

Итак, 13 дорожных ситуаций. 13 вариантов, когда по условиям задачи столкновение неизбежно и можно лишь выбрать, в кого или во что врезаться. Кем жертвовать и кого спасать.

Вот, например, такой тест на человечность.

TestAutopilot

Тормоза отказали, работает лишь руль, и какой выбор у робо-шофёра - нарушить правила, спасая своих пассажиров, либо пожертвовать ими ради защиты пешеходов, переходящих улицу в полном соответствии с ПДД?

Или вот ещё ситуация.

TestAutopilot2

Кого выбрать жертвой ДТП - законопослушного гражданина, перебегающего перекрёсток на красный, или же грабителя и вора, переходящего на зелёный?

Понятно, что предлагаемые ситуации во многом умозрительны, искусственно сконструированы и маловозможны в реальной жизни. Но, тем не менее, они важны для понимания, с какими проблемами, помимо чисто технических, придётся столкнуться людям, когда самоуправляемые повозки на дорогах из экзотики станут обыденностью. А пока, - и это ещё одно, неафишируемое назначение проекта MIT - идёт сбор статистики о человеческом выборе. Так что каждый участник этого теста вносит свою лепту в то, какими моральными нормами будут руководствоваться роботы-шофёры.

TestAutopilot3

Кстати, а как бы вы поступили в приведённых выше ситуациях? В чью пользу был бы ваш выбор, окажись вы за рулём?

Tags: авто, безопасность, общество, статистика, технологии, транспорт
Subscribe

Posts from This Journal “авто” Tag

promo a_nalgin november 8, 2028 18:28 689
Buy for 50 tokens
Всем добро пожаловать в мой Альманах! Что бы ни побудило вас подписаться — понравившийся ли пост, рекомендация ли друга, счастливый ли случай — я искренне рад этому. Присоединяйтесь, читайте, обсуждайте. Экономика, которой в основном посвящен Блог о дружбе с головой и деньгами, хороша тем,…
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 50 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →