기술의 윤리적 문제?

MIT의 technology review에서 재미있는 기사를 다루었다.

(이미 읽은 분들도 있겠지만.)

소위, self-driving car를 만들때, 각각의 상황에서 어떻게 자동차가 작동하도록 만들어야 하는가?
(a)는 직진을 하면 많은 사람이 죽거나 다치고, 회전을 하면 한사람만(+운전자)을 죽거나 다치게 하는 경우,
(b)는 직진을 하면 행인이 죽거나 다치고, 회전을 하면 운전자가 죽거나 다치는 경우,
(c)는 직진을 하면 많은 사람이 죽거나 다치고, 회전을 하면 운전가가 죽거나 다치는 경우이다.

순전히 ‘공리적’으로만 생각하면,
a,b,c 모두 회전을 하는 것이 더 옳다고 이야기하기 쉽다.
왜냐하면 더 적은 사람이 다치게 되고, 혹시 운전자가 다치는 경우라 하더라도 운전자는 차 안에 있으므로 부상의 정도가 덜 할 가능성이 더 있기 때문이다.

그런데 문제는…
과연, 인위적으로 어떤 사람(들)을 선택적으로 다치게하는 것이 괜찮은 건가?
과연, 다른 사람대신 운전자가 죽거나 다치게되는 차를 소비자가 살까?
뭐 등등의 질문이 있게 된다.

Technology review에서 선택한 기사의 제목이 아주 자극적이다.
“Why Self-Driving Cars Must Be Programmed to Kill”