메인이미지
도시인문학 사전
모두보기모두닫기
박스하단
사전 > 도시인문학 사전
 
인공지능
  분류 : 디지털도시성
  영어 : Artificial Intelligence
  한자 :

 통상적으로 지능을 가진 기계를 지칭하며 공학적으로는 인간의 지능을 모방하여 인위적으로 만들어진 지능을 뜻한다. 하지만 여기에서 지능이 무엇이며 이를 어떻게 기술적으로 구현할 것인지에 대한 합의는 역사적으로 달랐기 때문에 때에 따라 서로 다른 기술을 인공지능으로 지칭해 왔다. 인공지능의 시작은 1956년 미국 다트머스대학에서 이루어진 다트머스 회의로 보는 견해가 지배적이다. 1956년 미국 다트머스대학에서 세계적인 수학자와 과학자들 간 콘퍼런스가 열렸고, 이를 개최한 존 매카시(John McCarthy)가 이 콘퍼런스와 연구 과제를 인공지능에 관한 다트머스 하계 연구 과제(The Dartmouth Summer Research Project on Artificial Intelligence)’라고 이름 붙이며 인공지능의 역사가 시작되었다.

인공지능이라는 용어 자체는 다트머스 회의에서 처음 등장한 것이 맞지만 지능을 가진 기계에 대한 상상은 그 전부터 존재했으며, 다트머스 회의가 진행될 즈음 미국뿐 아니라 독일, 영국 등 다른 국가에서도 디지털 컴퓨터에 대한 개발이 비슷한 방향으로 향하고 있었다. 대표적으로 1948년 미국의 수학자 노버트 위너(Norbert Wiener)는 인간과 기계 간 커뮤니케이션에 대한 이론을 확립했는데 이를 위해 피드백을 기반으로 자동정정 기능을 갖춘 기계에 대해 상상하며 이를 사이버네틱스(Cybernetics)라고 이름 붙였다. 사이버네틱스의 시작은 위너가 제2차 세계대전이 확산될 당시 미군을 위해 대공예측기 개발 프로젝트에 참여하면서부터였다. 위너가 참여한 이 프로젝트는 적군의 비행기가 움직일 방향을 예상하여 몇 초 뒤에 도착할 지점에 포를 발사하는 자동화 장치를 개발하는 것이었다. 이 때 위너는 적군의 비행기를 맞추기 위해서는 비행기의 기계적 운동뿐 아니라 이를 조종하는 조종사의 심리적 판단까지 예측에 반영해야 함을 발견했다. 위너는 조종사의 움직임이 여러 층위의 주변 상황으로부터 피드백을 받아 자신의 행동을 수정하는 자동 기계장치처럼 움직인다고 보고 동일한 원리로 움직이는 기계 장치에 대한 이론을 수립했다. 사이버네틱스 이론의 토대인 인간과 기계 사이의 커뮤니케이션과 피드백을 통한 목적지향적 예측시스템의 기본 원리는 현재 우리가 인공지능이라고 부르는 기계 장치와 많은 부분을 공유하고 있다. 때문에 사이버네틱스를 인공지능 연구의 계보학적 출발점으로 보는 견해가 많다.

1950년 앨런 튜링이 고안한 튜링테스트(Turing test) 역시 인공지능이 무엇인지 이해하는 데 핵심적이다. 튜링테스트는 가려진 천막 뒤의 인간, 컴퓨터가 동일한 질문에 대한 대답을 했을 때 인간 판별자가 대답만 보고 어느 쪽이 컴퓨터인지 정확히 가려내지 못한다면 기계도 인간과 마찬가지의 지능을 갖는다는 전제에서 출발한다. 튜링테스트는 인간과 기계가 무엇이 다른지 철학적인 질문을 던졌을뿐 아니라 인간의 지능이 무엇이며 어떻게 평가될 수 있는지 한 가지 방향성을 제시했다는 점에서 의의를 갖는다. 또한, 컴퓨터가 인간이 했을 법한 대답을 하도록 고안한 튜링테스트의 전제는 인공지능 연구의 중요한 목표이자 관련 기술이 개발되었을 때 성능을 측정하는 기준으로 활용되어 왔다.

결국 다트머스 회의는 이 같은 이론이나 논의들을 모아 인공지능이라는 독자적 학술 분야 및 기술 명칭으로 자리잡게 했다. 하지만 다트머스 회의는 인공지능이라는 이름에 대해서는 합의를 했지만 인공지능이 어떠한 기술적 양식을 가지며 무엇을 목표로 해야하는지에 대한 뚜렷한 방향성을 잡지는 못했다. 오히려 1950년대에서 1960년대에 미국, 영국, 독일 등에서 동시다발적으로 연구된 디지털 컴퓨터에 대한 연구가 이후 인공지능이 무엇인지 이해할 수 있는 큰 틀을 제공했다. 앨런 튜링은 튜링테스트 외에도 기계학습, 강화학습, 유전 알고리즘 등 인공지능의 주요 의제들을 소개했으며, ‘지능이 무엇인지에 대한 대답을 찾기 위해 수학, 게임, 퍼즐, 지능지수 검사와 같은 몇몇의 과제들에 관심을 가지면서 공학, 뇌과학, 행동주의 심리학 등 간학제적 연구를 통해 인간의 지능을 다방면에서 탐구했다. 대표적인 연구 사례는 1952년 아서 사무엘(Arthur Samuel)2인 대결 보드게임인 체커(Checkers)를 수행하도록 고안한 컴퓨터 프로그램으로 일반인을 이길 수 있을 정도의 게임 실력을 텔레비전을 통해 중계하면서 많은 관심을 끌었다. 이는 컴퓨터가 단순한 수식 계산을 넘어 복잡한 게임의 규칙을 이해하고 최적의 수를 찾아내는 과정을 수행할 수 있음을 밝혔으며, 규칙에 머무르지 않고 게임을 거듭할수록 학습을 통해 실력을 향상시키는 능력을 갖추었다. 비슷한 시기에 인간의 지능을 포함해 모든 지능적인 행위는 물리적인 기호로 구성된 시스템을 조작하며 작동한다는 물리적 기호 시스템(Physical Symbol System) 이론이 등장했으며, 인간의 뇌신경이 작동하는 방식을 모사한 인공 신경망 퍼셉트론(Perceptron)이 개발되고, 인공지능을 위한 프로그래밍 언어 리스프(Lisp)가 개발되는 등 각 분야에서 지능을 가진 기계를 구현하기 위한 많은 연구 성과들이 축적되었다.

이 같은 연구들을 초기 인공지능 연구라고 부르며 인공지능이 무엇인지를 이해하기 위해서나 인공지능이 달성해야 할 최종 목적을 이해하는 데 막대한 학술적 유산을 남겼다. 1970년대 이후는 인공지능의 암흑기라고 흔히 불리는데 이 때도 인공지능 연구는 꾸준히 진행되었지만 이전에 수학이론이나 뇌과학 연구들이 상상했던 목적을 이루기에 기술적 한계가 컸던 시기다. 이 때는 오히려 전문가의 지식을 기호를 통해 논리적인 규칙으로 생성한 후, 사람이 하는 질문에 답을 하는 형식의 전문가 시스템이 인공지능으로 불렸다. 하지만 모든 지식에 대해 규칙을 하나하나 생성하고 조합하는 과정이 너무나 복잡하고 문제점을 수정하는 작업도 까다롭기 때문에 인공지능 연구의 변곡점을 만들지는 못했다. 1980년대나 1990년대에 다시 활발해진 신경망 연구가 인공지능 연구에 대한 청사진을 제공했으나 크고 복잡한 패턴을 파악하고 방대한 연산을 컴퓨터로 해결하는 데 어려움을 겪었고, 이는 2000년대에 이르러 인터넷의 발전으로 방대한 데이터를 축적하여 알고리즘을 개발할 수 있게 되고 컴퓨터 하드웨어의 성능도 대폭 향상된 후에야 실마리를 찾았다.

2010년 이후 딥러닝(Deep Learning)을 통해 기계학습이 진화하면서 나타난 기술의 형태를 우리는 지금 인공지능이라고 부른다. 하지만 2010년 이후 기계학습, 컴퓨터 비전, 자연어 처리 등의 분야에서 매년 2만 건이 넘는 인공지능 연구가 쏟아지고 있으며 컴퓨터가 수행할 수 있는 업무의 범주나 그를 위한 기술적 양식을 계속해서 변화하고 있다. 지금의 인공지능 형태를 넘어 궁극적으로 인간의 지능을 능가하는 인공적인 지능을 가진 기계에 도달하기 위한 연구가 여전히 진행 중에 있다.

 

작성자: 이정현(중앙대학교 인문콘텐츠연구소 HK연구교수)