[AI 태동 70년 ‘뉴 패러다임’]
인공지능(AI) 개발의 70년 역사는 결코 순탄하지 않았다. 앨런 튜링의 논문을 필두로 이론적 기반이 다져지고 60년대부터 본격적인 AI 개발의 막이 올랐지만 지금과 같은 발전은 90년대 후반에 들어서야 시작됐다. 이런 도약은 역설적으로 인간 두뇌를 닮은 복잡한 컴퓨터 알고리즘(문제 해결 절차) 설계를 포기한 결과였다. 알고리즘은 단순하게 짜되 많은 정보를 읽히는 기계학습(머신러닝) 방식으로의 전환이 AI 발전의 기폭제가 된 것이다.
튜링이 1950년 당대 유력 철학 학술지 ‘마인드’에 기고한 ‘계산하는 기계와 지능’은 비록 ‘인공지능’이란 단어를 쓰진 않았지만 AI의 이론적 기초를 닦은 기념비적 논문으로 평가된다. 튜링은 이 논문에서 기호 형태의 언어로 이뤄지는 명령 및 보상·제재를 통해 기계가 사람에 비견할 학습 능력을 갖출 수 있다고 내다봤다. 6년 뒤 미국 다트머스대에서 열린 전문가 세미나에선 ‘인공지능’이란 용어가 처음 쓰였다.
AI 개발 붐이 일어난 1960년대 중반만 해도 머지 않아 인간 수준의 AI가 나올 것이란 기대가 높았다. 언어 번역, 영상 처리, 텍스트 이해, 음성 인식, 로봇 제어, 머신러닝 등 세부 목표도 이때 이미 세워졌다. 하지만 이후 30년 가까이 성과는 부진했다. 초기 AI 개발자들은 인간이 언어와 감각을 사용하는 방식을 수학적 모델로 만들고 이를 컴퓨터 프로그램으로 구현하려 했다. 인간 지능의 작동 원리를 기계에 복제하려는 ‘톱다운’ 방식을 택한 셈이다. 하지만 인간의 능력을 일일이 시뮬레이션할 만한 지식이 부족했고 이를 뒷받침할 컴퓨터 성능도 모자랐다. 기대가 실망으로 바뀌면서 70년대 초반과 80년대 후반에는 투자와 관심이 말라붙는 이른바 ‘인공지능의 겨울’이 닥치기도 했다.
1990년대 들어 AI 개발자들은 보다 현실적인 태도를 취했다. 인간을 총체적으로 닮은 AI 개발이 요원한 만큼 구체적 과제를 하나씩 풀어가며 AI를 고도화하자는 ‘보텀업’ 방식으로 전환한 것이다. 선택된 방법론은 머신러닝이었다. 기계가 입력된 빅데이터에서 유용한 패턴을 찾아내며 스스로 학습해 나가는 방식으로, 컴퓨터 성능의 비약적 발전과 디지털화 확산에 따른 데이터량 급증이 그 토대가 됐다.
![]() |
인공지능(AI) 기본 개념을 닦은 앨런 튜링의 생애를 소재로 한 영화 ‘이미테이션 게임’의 한 장면. 메가박스플러스엠 제공 |
인공지능(AI) 개발의 70년 역사는 결코 순탄하지 않았다. 앨런 튜링의 논문을 필두로 이론적 기반이 다져지고 60년대부터 본격적인 AI 개발의 막이 올랐지만 지금과 같은 발전은 90년대 후반에 들어서야 시작됐다. 이런 도약은 역설적으로 인간 두뇌를 닮은 복잡한 컴퓨터 알고리즘(문제 해결 절차) 설계를 포기한 결과였다. 알고리즘은 단순하게 짜되 많은 정보를 읽히는 기계학습(머신러닝) 방식으로의 전환이 AI 발전의 기폭제가 된 것이다.
튜링이 1950년 당대 유력 철학 학술지 ‘마인드’에 기고한 ‘계산하는 기계와 지능’은 비록 ‘인공지능’이란 단어를 쓰진 않았지만 AI의 이론적 기초를 닦은 기념비적 논문으로 평가된다. 튜링은 이 논문에서 기호 형태의 언어로 이뤄지는 명령 및 보상·제재를 통해 기계가 사람에 비견할 학습 능력을 갖출 수 있다고 내다봤다. 6년 뒤 미국 다트머스대에서 열린 전문가 세미나에선 ‘인공지능’이란 용어가 처음 쓰였다.
![]() |
[저작권한국일보] 인공지능 구분. 배경 사진은 삼성전자가 만든 인공인간 ‘네온’으로 인간의 표정과 몸짓의 미묘한 움직임을 학습해 실제 사람처럼 자연스러운 모습을 구현한다. 그래픽=김문중 기자ㆍ삼성전자 제공 |
AI 개발 붐이 일어난 1960년대 중반만 해도 머지 않아 인간 수준의 AI가 나올 것이란 기대가 높았다. 언어 번역, 영상 처리, 텍스트 이해, 음성 인식, 로봇 제어, 머신러닝 등 세부 목표도 이때 이미 세워졌다. 하지만 이후 30년 가까이 성과는 부진했다. 초기 AI 개발자들은 인간이 언어와 감각을 사용하는 방식을 수학적 모델로 만들고 이를 컴퓨터 프로그램으로 구현하려 했다. 인간 지능의 작동 원리를 기계에 복제하려는 ‘톱다운’ 방식을 택한 셈이다. 하지만 인간의 능력을 일일이 시뮬레이션할 만한 지식이 부족했고 이를 뒷받침할 컴퓨터 성능도 모자랐다. 기대가 실망으로 바뀌면서 70년대 초반과 80년대 후반에는 투자와 관심이 말라붙는 이른바 ‘인공지능의 겨울’이 닥치기도 했다.
1990년대 들어 AI 개발자들은 보다 현실적인 태도를 취했다. 인간을 총체적으로 닮은 AI 개발이 요원한 만큼 구체적 과제를 하나씩 풀어가며 AI를 고도화하자는 ‘보텀업’ 방식으로 전환한 것이다. 선택된 방법론은 머신러닝이었다. 기계가 입력된 빅데이터에서 유용한 패턴을 찾아내며 스스로 학습해 나가는 방식으로, 컴퓨터 성능의 비약적 발전과 디지털화 확산에 따른 데이터량 급증이 그 토대가 됐다.
상품 추천 시스템을 시작으로 2000년대 중반까지 음성 인식, 기계 번역, 손글씨 인식 등에서 주목할 만한 성과가 쌓이면서 AI 개발자들은 데이터가 이론적 모델보다 더 강력할 수 있다는 사실을 깨달았다. 개별 알고리즘은 단순한 통계 함수 수준이지만 이들이 하나의 소프트웨어에 묶여 수많은 데이터를 동시 처리하면 마치 지능적 존재처럼 행동했다. 넬로 크리스티아니 영국 브리스톨대 교수는 “AI에 정신적ㆍ심리적 특질을 만들어내려는 노력을 포기한 그 순간부터 성과가 나오기 시작했다”고 설명했다.
다양한 머신러닝 기법 중 최근 각광 받는 건 딥러닝이다. 여러 겹의 인공신경망 알고리즘을 접목한 딥러닝은 인간의 개입 없이 데이터의 ‘특징’을 스스로 파악하는 경지에 도달했다. 2012년 구글과 앤드류 응 미국 스탠퍼드대 교수가 만든 알고리즘이 이미지 학습을 통해 사람과 고양이 사진을 분류하는 데 성공한 일은 딥러닝의 대세화를 알리는 신호탄이었다. 인간이 지침을 주지 않는 한 고양이 고유의 특징을 잡아낼 수 없었던 종전 머신러닝 방식의 한계를 돌파해 AI가 인간처럼 ‘추상화’ 능력을 발휘할 가능성을 보여준 것이다.
이훈성 기자 hs0213@hankookilbo.com


![[저작권한국일보] 인공지능 구분. 배경 사진은 삼성전자가 만든 인공인간 ‘네온’으로 인간의 표정과 몸짓의 미묘한 움직임을 학습해 실제 사람처럼 자연스러운 모습을 구현한다. 그래픽=김문중 기자ㆍ삼성전자 제공](http://static.news.zumst.com/images/36/2020/06/09/fbe5805e200e46ca914edc187e884008.jpg)



























































