2016년 3월 진행된 이세돌과 알파고의 대국을 기억하시나요?
세계 최초로 진행된 인간과 AI의 바둑대결로, 전 세계인들의 주목을 끌었습니다.
사실 인간과 AI의 대결은 이번이 최초는 아닙니다.

1979년, 백개먼 대회 우승
1997년, 체스게임 우승
2006년, 스크래블 보드게임 우승
2011년, 제퍼디 퀴즈쇼 우승

인간과 AI는 여러 번 대결을 펼쳤으며, 여러 번 인간이 패하기도 했습니다.
그렇다면 이번 대결은 다른 대결보다 더 큰 이슈가 된 이유는 무엇일까요?

바둑은 그 경우의 수가 무수히 많기 때문에 지금까지 인간의 고유영역이라고 인식되어 왔기 때문입니다. 이런 인간의 고유영역에 AI가 도전장을 내민 것입니다.
이세돌은 여러 번의 세계대회에서 우승하며 세계 최고의 바둑기사로 그 실력이 입증되었으며, 이에 이번 경기는 당연히 인간의 승리로 끝날 줄 알았습니다. 하지만 결과는 1:4로 인간의 고유영역이라고 인식되었던 바둑에서 인간이 인공지능에게 완전히 패했습니다.

그렇다면 AI란 무엇일까요?

AI(Artificial Intelligence)란 ‘인간의 지능으로 할 수 있는 사고, 학습, 자기계발 등을 컴퓨터가 할 수 있도록 하는 방법’을 연구하는 컴퓨터 공학 및 정보기술의 한 분야를 뜻합니다.

다음과 같은 기술들을 이용하여 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 만듭니다.

– 전문가 시스템 (Expert Systems)

전문가 시스템은 지식과 추론으로 이루어 집니다. 지식베이스는 전문가에 의해 제공된 전문적 지식을 갖게 되며, 이런 지식은 사실(Facts)과 규칙으로 정형화 되어 있으며, 추론엔진은 이 지식을 베이스로 주어진 문제를 추론해서 해결합니다.

– 퍼지이론 (Fuzzy System Theroy)

퍼지논리라는 새로운 방법을 사용하여 불분명한 것에 대한 표현을 하는 것으로, 참과 거짓으로 구분된 소속함수의 개념을 0과 1 사이의 수로 나타내는 방법입니다. 퍼지 시스템은 이런 퍼지논리를 기초로 하는 이론으로 부울논리를 확장한 개념입니다.

– 기계학습 (Machine learning)

전문가 시스템과 연계되는 개념으로, 결과값 판단을 위한 조건을 기계스스로 수립하는 것입니다.

– 인공신경망 (Neural Networks)

인간의 뇌 구조를 컴퓨터로 구현한 것으로, 신경망은 데이터베이스로부터 학습이라는 과정을 통하여 규칙을 대신하는 신경망 패턴을 형성하게 됩니다.

– 유전자 알고리즘 (Genetic Algorithms)

다윈의 유전법칙에 기인한 기법입니다.

– 튜링시스템 (Turing Test)

영국의 수학자 튜링이 제안한 방법으로, 컴퓨터가 인공지능을 갖추었는지 판별하는 실험입니다.

– 자연언어시스템 (Natural Language Systems)

컴퓨터가 자연어를 처리하는 방법에 대한 계산이론을 다루며, 단어와 단어의 뜻, 단어로 구성된 문장과 그 문장의 의미 등에 대한 지식을 잘 활용하는 방법 등을 연구합니다.

1940년대 후반에 처음 등장한 AI는, 약 80년만에 인간의 대결에서 승리를 거둘만큼 비약적인 발전을 거두었습니다. 그리고 현재는 이미 금융, 언론사, IT, 자동차 등 다양한 분야에서 AI기술이 사용되며 정확한 분석과 판단으로 인류에게 큰 편리함을 가져다 주고 있습니다.

로봇어드바이저(Robot+Advisor)는 컴퓨터가 투자자의 성향과 시장등을 분석해 자산을 관리해 주는 서비스로 이미 금융시장에서 광범위하게 사용되고 있습니다. 해커 올림픽이라고 불리우는 데프콘 2016 에서는 AI팀인 ‘Mayhem’이 본선에 진출하기도 했습니다. 이는 즉 하루에도 수백,수만건 발생하는 사이버 공격을 AI를 이용하여 효과적으로 대응할 수 있다는 이야기입니다.

하지만 이렇게 비약적으로 발전하는 AI기술은 과연 인류에게 이득만을 가져다 주는 것일까요?

우리는 AI기술이 발전함에 따라 수반하게 될 다양한 사회적, 윤리적 이슈들에 대해서 생각해 보아야 합니다.

올해 2월 구글의 자율주행 자동차가 시범 운행 중 접촉사고를 낸 데 이어, 5월에는 테슬라모델이 오토파일럿 기능을 이용해 달리던 중 대형트럭과 충돌하여 운전자가 사망하는 사고가 발생하며 자율주행자동차 안전에 대한 불안감이 다시 뜨거운 감자로 부상하였습니다.

자율주행자동차와 늘 함께 언급되는 것이 바로 트롤리 딜레마입니다. ‘트롤리 딜레마’란 사고상황을 설정하고 도덕적 견해를 묻는 윤리적 실험으로, 극단적으로 말하면 “누구를 죽일 것인가?” 선택을 하는 것입니다.

2015년 MIT Technology Review에서 나온 트롤리 딜레마에 대한 이야기입니다.

1) 직진을 하는 경우 여러 보행자를 치게되며, 방향을 꺾으면 한명을 치게되는 상황입니다.
2) 직진을 하는 경우에는 한명의 보행자를 치게되고 방향을 꺾으면 자동차 탑승자가 위험항 상황입니다.
3) 직진을 하는경우 여러명의 보행자를 치게되고 방향을 꺾으면 자동차 탑승자가 위험한 상황입니다.

이런 상황에서 어떠한 선택이 가장 최적의 선택일까요? 이에 대한 의사결정은 누가 수행해야 할까요? (운전자, 제조사, 입법기관)
위 세가지 상황에 대하여 400여명을 대상으로 설문조사를 진행한 결과, 대부분 희생자를 최소화하도록 무인차를 만들어야 한다고 답했습니다. 하지만 아이러니하게도 참여자들은 자신은 이런 차량에 탑승하지 않겠다고 하였습니다.

1:10의 상황에서 1이 희생하는 것은 당연하지만, 그 1명이 자신이라면 생각이 달라지는 것입니다.
이러한 상황에서 최적의 선택을 하기 위하여 많은 국가와 기관들이 논의중에 있으며, 우리나라 역시 2016년 4월 7일, 자율주행자동차 ‘윤리, 법적 쟁점’ 세미나를 개최하여 다양한 의견을 수렴하고 문제를 논의하였습니다.
자율주행자동차의 트롤리 딜레마는 AI기술이 상용화 됨에 따라 우리가 생각해 보아야 할 수많은 윤리적 이슈들의 단편적인 예시일 뿐이며, 우리는 다음과 같은 윤리적, 사회적 이슈들에 대하여 함께 고민을 해보아야 할 때입니다.

– 고통을 느끼지 않는 로봇개를 발길질 하는 것은 비윤리적인가?
– 로봇 때문에 일자리를 뺏길 수 있는 많은 실업자들을 위해 마련되어야 할 사회적 제반과 정책은 무엇이 있으며, 로봇 때문에 수익을 얻게 될 주체들의 의무와 책임은?
– 인류는 호기심과 궁금증을 갖고 해답을 찾아가는 과정을 통하여 현생 인류가 비약적인 발전을 이룰 수 있었다. 하지만 디지털기술이 발전하면서 질문과 답변이 거의 동시다발적으로 이루어 지면서 호기심을 숙성시키는 경로가 사라지고 있다. AI기술의 발전은 인류의 발전을 가속화 시킬것인가 아니면 인류 발전을 저해하는 결과를 초래할 것인가?

AI의 비약적인 발전이 인류에게 독이 될지 아니면 득이 될지, 그것은 인류가 풀어가야 할 숙제가 아닐까요?