본문 바로가기

콘텐츠/강승우의 머신러닝 이야기

[강승우의 머신러닝 이야기] 되돌아 보는 인공지능의 역사

[강승우의 머신러닝 이야기] 되돌아 보는 인공지능의 역사

지난 9월(2022년 9월), 미국 ‘콜로라도 주립 박람회 미술대회’의 디지털아트 부문에서 인공지능(AI – Artificial Intelligence)이 그린 그림이 우승을 차지했다. 인간이 만든 지능이 인간의 영역으로 여겨지는 창작의 영역까지 도전하고 있는 것이다. 이는 인공지능 기술의 눈부신 발전을 보여주는 극적인 사례 중 하나다.

콜로라도 주립 박람회 미술대회에서 우승을 차지한 Theatre D'opera Spatial(Jason M. Allen)

하지만 4차 산업혁명의 주역으로 떠오른 인공지능 기술의 발전 과정은 결코 순탄하지만은 않았다. 큰 위기만 2번을 맞이했으며, 이외에도 수많은 위기를 극복해야만 했다. 특히 이런 위기를 극복하는 과정에서 인공지능 기술은 영역을 넓히고, 정교함을 높였다. 아니면 반대로 영역을 넓히고 정교함을 더해가는 과정을 통해 힘겹게 위기를 극복했다고 하는 것이 더 적합할 수도 있을 것이다.

인공지능 기술이 거쳐온 길을 간략하게 돌아보고, 앞으로 가야할 길을 생각해 보자.

2번의 위기를 거쳐 강해진 인공지능

2016년 프로 바둑기사 이세돌과 구글의 자회사인 딥마인드(Deep Mind)에서 딥러닝(Deep Learning) 기술 기반으로 훈련시킨 ‘알파고(AlphaGo)’의 바둑 대국이 있었다. 프로기사와 인공지능 간의 역사적인 대국은 서울 한복판인 광화문 옆 포시즌즈 호텔에서 진행됐다. 대국 전 많은 사람들은 프로기사의 승리를 당연시했다. 첫 번째 대결에서 알파고가 이겼을 때, 남은 대국에서는 프로기사의 역전을 전망하는 이도 많았다.

그러나, 최종 대국 결과는 1202개의 CPU와 176개의 GPU로 무장한 알파고가 5번의 대국에서 4번을 승리했다. 이는 전세계에 큰 충격을 주며 인공지능 기술이 이룬 성취를 알렸다. 그리고, ‘딥러닝(Deep Learning)’은 인공지능 대명사가 됐다.

인간의 지능을 닮은 기술 개발은 1950년대 말에 탐색과 추론 기반으로 처음 시도됐다. 당시 개발된 ‘체커 게임 인공지능’은 최적의 방안을 찾는 탐색 기술을 사용했다. 원반을 다른 타워로 옮기는 하노이 타워 문제는 문제에 적합한 알고리즘을 찾는 추론에 기반하고 있다.

하노이 타워 문제

컴퓨터에게 ‘방법과 규칙’을 제공하려던 추론과 탐색 기반 인공지능 기술은 단순한 문제에 대한 해답을 찾는 것은 가능했지만 현실의 복잡한 문제에 대해서는 적용이 쉽지 않아 결국 사람들의 관심에서 멀어졌다.

1980년대에 인공지능 기술에 대한 새로운 접근법인 ‘전문가 시스템(Expert system)’ 도입으로 인공지능 기술은 다시 관심을 끌게 된다. 전문가 시스템은 특정 영역의 전문가가 갖고 있는 지식을 컴퓨터에 심고자 하는 시도였다. 이전과 다른 점은 컴퓨터에게 ‘방법과 규칙’대신 ‘지식’을 제공하기로 한 것이다.

지식을 컴퓨터가 이해할 수 있는 기호로 변환해 컴퓨터 내에 ‘지식 창고(Knowledge base)’를 만들어 놓는 방법으로, 법률이나 의료 등 다양한 영역의 전문가 시스템 시도가 있었다. 그러나 방대한 지식을 수집하는 것이 어려운 것은 물론이고, 수집한 지식을 컴퓨터가 이해하는 방식으로 정리하는 것 또한 한계가 있었다. 또한 새로운 지식의 지속적 입력도 어려웠다.

전문가 시스템

이런 어려움으로 인공지능 기술은 다시 사람들의 관심 저편으로 사라져 갔다.

물러나 있던 인공지능 기술은 1990년에 인터넷(Internet)의 발전과 함께 떠오른 ‘빅데이터(Big Data)’라는 용어와 함께 우리 곁으로 돌아올 수 있었다. 대중화된 인터넷은 빅데이터라고 불리우는 커다란 데이터를 생성한다.

사람들은 이런 빅데이터를 시각화해 규칙적인 패턴 등 유용한 정보를 추출하려는 시도로 이어졌다. 그리고, 통계 기반의 랜덤 포레스트(Random Forest), 선형회귀(Linear Regression) 등의 기술로 성공적인 예측을 보여주기 시작했다. 컴퓨터에 지식을 주입하는 것이 아니라, 컴퓨터가 주어진 데이터에서 지식을 찾기 시작한 것이다.

통계적 머신러닝은 훈련할 데이터 선택에 어려움이 있었다. 컴퓨터에 제공할 데이터에 따라 결과가 큰 차이를 보였던 것이다. 따라서 더 나은 머신러닝 결과를 얻기 위해서는 데이터 선택에 많은 노력이 필요했다.

2010년 경부터 발전한 ‘딥러닝(Deep Learning)’ 기술은 머신러닝 기술에서 이러한 불편을 없앴다는 점에서 획기적인 발전을 이뤘다. 신경망 기술로 인해 머신은 훈련과정에서 좋은 결과를 얻을 수 있는 데이터를 스스로 찾을 수 있게 됐다. 컴퓨터가 배울 데이터를 스스로 선택하게 된 것이다.

이 같은 인공지능 기술의 발전을 위한 시도는 다음과 같이 정리할 수 있다.

ㆍ1960년대: 지능 생성 – 방법과 규칙을 위한 알고리즘 작성

ㆍ1980년대: 지식 주입 – 지식을 보관하는 전문가 시스템 구성

ㆍ1990년대: 선택적 데이터 제공 – 통계 기반 데이터 분석(머신러닝)

ㆍ2010년대: 데이터 제공 – 상관 관계 구성(딥러닝)

데이터에서 필요한 정보를 스스로 찾아내는 딥러닝 기술은 현재 큰 성공을 거두고 있다. 그러나, 딥러닝 기술의 한계를 지적하는 목소리도 분명히 있다. 그리고, 이 한계를 극복하기 위한 노력 또한 계속되고 있다.

필자 강승우 위데이터랩 인공지능연구소장 겸 부사장은 펜타 컴퓨터를 거쳐 BEA, Oracle에서 최고 기술 아키텍트로서 기업의 IT 시스템 문제가 있는 곳의 해결사 역할을 해왔다. 글로벌에 통하는 한국 소프트웨어 개발에 대한 열정으로 S전자 AWS 이벤트 로그 분석을 통한 이상징후 탐지, R사의 건축물 균열 탐지 등의 머신러닝 프로젝트를 진행했다. 현재는 딥러닝을 이용한 소프트웨어 취약점 탐지 자동화 연구와 머신러닝과 딥러닝강의를 진행하고 있으며, 비즈니스화에도 노력을 기울이고 있다. 최근 저서로 '머신러닝 배웠으니 활용해볼까요?'가 있다.