Раз мораль не универсальна/субъективна, то автопилоту надо переключать настройки морального выбора в зависимости от пассажира (а их надо с него как-то считывать). А если пассажиров несколько с разными моральными профилями, чей выбирать?
Реалистичных примеров ситуаций с моральным выбором пока не придумали, а значит затруднительно запрограммировать автопилот на распознавание таких ситуаций. У нас есть критерии понятные человеку, а не машине.
Для принятия морального решения нужно знать результат этого решения т.е. знать будущее, а оно не известно.
Автопилот это программа, он не имеет модели ситуации аналогичной человеческой, а значит не может принимать решения как это сделал бы человек. Моральные решения это задача разума, а не программ.
Робот должен соблюдать правила и действовать предсказуемо.
Робот не должен жертвовать пассажиром.
Похоже ни о каком моральном выборе при разработке автопилота говорить не имеет смысла.