9 Вывод

  1. Раз мораль не универсальна/субъективна, то автопилоту надо переключать настройки морального выбора в зависимости от пассажира (а их надо с него как-то считывать). А если пассажиров несколько с разными моральными профилями, чей выбирать?

  2. Реалистичных примеров ситуаций с моральным выбором пока не придумали, а значит затруднительно запрограммировать автопилот на распознавание таких ситуаций. У нас есть критерии понятные человеку, а не машине.

  3. Для принятия морального решения нужно знать результат этого решения т.е. знать будущее, а оно не известно.

  4. Автопилот это программа, он не имеет модели ситуации аналогичной человеческой, а значит не может принимать решения как это сделал бы человек. Моральные решения это задача разума, а не программ.

  5. Робот должен соблюдать правила и действовать предсказуемо.

  6. Робот не должен жертвовать пассажиром.

Похоже ни о каком моральном выборе при разработке автопилота говорить не имеет смысла.