자율주행차와 문제점

자율주행차는 운전자 개입 없이 주변 환경을 인식해 주행 상황을 판단하고 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 자동차다.최근 자율주행차는 다양한 장점으로 많은 관심을 받고 있는 분야다.완전 자율주행이 가능하다면 음주운전, 졸음운전, 난폭운전, 보복운전, 뺑소니 등 사람이 운전할 때 나타나는 문제점을 완전히 없앨 수 있다.또 운전을 못하거나 하기 어려운 교통약자도 편하게 자가용을 이용할 수 있다.사람이 전혀 운전하지 않기 때문에 차 안에서 여유를 가질 수도 있다.

미국자동차공학회는 자율주행 기술 수준에 따라 6단계로 나눈다.

0단계 비자동화 – 운전자는 상황을 파악하고 운전한다

1단계 운전자 보조 – 운전자는 상황을 파악하고 운전한다 → 시스템이 운전자 가속 혹은 감속 또는 조향 보조 → 스마트 크루즈 또는 차선 유지 보조

2단계 부분자율화 – 운전자는 상황을 파악하고 운전한다 → 고속도로 주행보조 → 원격스마트 주차보조

3단계 조건부 자동화 – 운전자가 시스템 요청시 운전한다 → 시스템이 상황파악을 하고 운전 → 교통혼잡시 저속주행 → 고속도로주행 → 자동차로 변경

4단계 고도 자동화 – 운전자가 시스템에 개입하지 않음 → 시스템이 정해진 도로와 조건 하에서 운전함

5단계 완전 자동화 → 시스템이 모든 도로와 조건에서 운전한다

4단계나 5단계는 사람이 운전에 전혀 개입하지 않기 때문에 사고가 절대 발생해서는 안 된다.하지만 현재까지 4단계나 5단계에서 사고가 난 사례가 있다.운전자는 운전을 할 때 정보수집 →의사결정 →정보제공 →자동차 조작 단계를 거친다. 그러나 AI의 정보수집 과정이나 의사결정 과정에서 센서 오류 또는 시스템 오류로 인해 사고가 난 사례가 있어 자율주행자동차의 안전성을 아직 담보하기 어렵다.

보안 관련 문제도 있다. 운전자가 사람이 아닌 AI인 경우 차량이 해킹되면 자율주행차가 존재하는 세계 곳곳에서 테러에 버금가는 대형 사고가 발생할 수 있다.

반면 사고가 났을 때 역시 문제가 나타난다. 현재 자율주행 시 사고가 났을 때 책임 소재가 명확하지 않다. 운행자가 책임져야 하는지, 제조사가 책임져야 하는지 명확한 기준이 없다. 여기에 운행자 책임이라고 해도 보험사에서 자율주행 사고까지 보험에 포함시킬지 등 논란이 있다.

이외에도 윤리적 문제인 트롤리 딜레마가 언급되기도 한다.트롤리 딜레마는 브레이크가 고장난 상황에서 그대로 직진하면 5명의 사람이 차에 치여 목숨을 잃고 방향을 틀면 한 사람이 목숨을 잃게 되는 경우처럼 위급한 상황에서 어떤 판단을 해도 누군가 목숨을 잃는 상황이다.

모든 자동차가 자율주행자동차라면 기술적 관점에서 사고가 날 환경을 조성하지 않는 것이 중요하지만 자율주행자동차와 사람이 운전하는 자동차가 섞인 도로에서는 많은 변수가 있다.운행자와 보행자 우선순위, 어린이와 노인 우선순위, 소수보다 다수를 우선하는 공리주의 등 다양한 상황에서 인공지능이 사람처럼 윤리적을 판단할 수 있을지 의문이 든다.자율주행차가 활성화되려면 인공지능의 윤리적 판단이 사람의 윤리적 판단 수준과 유사할 필요가 있다.

error: Content is protected !!