지난 1956년 여름, 존 매카시(John McCarthy)와 마빈 민스키(Marvin Minsky) 등 당시 최고의 정보과학자들이 다트머스 대학에 모여 ‘인공지능(Artificial Intelligence)’ 연구 프로젝트를 시작했다. 이때부터 인공지능이라는 용어가 처음 사용되기 시작했는데, 영국의 수학자 앨런 튜링이 ‘생각하는 기계’의 구현 가능성과 튜링 테스트를 제안하면서부터 시작되었다고 볼 수 있다.
1950년 튜링은 기계가 사람처럼 생각할 수 있다는 견해를 내놓았다. 그는 컴퓨터와 대화를 나누며 컴퓨터의 반응을 인간의 반응과 구별할 수 없다면 컴퓨터가 사고할 수 있는 것으로 간주해야 한다고 주장했다. 이러한 견해가 바로 인공지능의 개념적 기반이 되었을 것이다.
많은 연구자들은 ‘기계가 인간과 같이 생각할 수 있는가?’ 라는 질문에 답하기 위해 여러 시행착오를 거듭했지만 인공지능 연구는 1970년대 중반에 들어서면서 한계를 드러내기 시작했다. 당시 컴퓨터는 정보를 처리하기에 성능과 용량이 너무 부족했고, 인간의 두뇌에 대한 연구도 미진했기 때문이다. 이처럼 근거 없는 낙관과 연구비가 끊기는 시절이 교차하면서 인공지능의 역사도 60년을 맞이했다.
최근 들어 인공지능의 전면적 등장 배경에는 여러 가지 기술의 융합적 혁신이 자리 잡고 있다고 전문가들은 설명하고 있다. 컴퓨팅 성능의 비약적인 향상과 하드웨어 비용의 급락, 기계학습과 인공신경망에 기초한 딥 러닝(Deep Learning) 기술의 알고리즘 개선, 클라우드 컴퓨팅과 대용량 데이터의 축적 및 빅데이터 분석, 인터넷과 모바일 환경의 발전에 따른 네트워크 확장, 인지적 컴퓨팅의 출현 등이 인공지능 발전의 주요이유로 꼽힌다.
무엇보다 인공지능을 학습시키는데 제공할 수 있는 데이터의 양이 방대해졌다는 것이다. 관련전문가들에 의하면 2025년까지 전 세계 데이터의 총량이 현재의 10배인 163제타바이트까지 증가할 거라는 전망이다. 사람이 공부를 하려면 책을 많이 읽어야 하는 것과 같은 이치로, 많은 데이터를 학습할수록 인공지능은 발달하게 된다는 것이다. 여기에는 사물인터넷(IOT)가 밀접하게 연관되어 있다. 모든 사물에 인터넷이 연결되면서 데이터화되고 온라인상에 존재하면서 모든 단말기의 센서로부터 얻어지는 정보를 추출하고 사용할 수 있게 된 것이다.
딥 러닝과 같은 인공지능 알고리즘이 빅데이터를 활용해 사물인터넷, 로봇기술(Robotics) 등과 융합되면서 전 세계는 새로운 4차 산업혁명의 시대로 접어들고 있다. 구글의 자율주행 자동차, IBM 사의 슈퍼컴퓨터 왓슨을 활용한 의료분야에서의 암 치료, 종양 진단 등 이미 인공지능과 로봇 기술은 상용화를 눈앞에 두고 있다. 조만간 인공지능과 로봇 기술은 인간의 생활을 구성하는데 있어 필수불가결한 요소가 될 것으로 전망되고 있다.
그러나 기술혁신이 일자리에 미치는 영향은 단지 최근의 인공지능에 국한된 것이 아닌, 인간 사회의 변화와 발전은 도구와 기술혁신에 기초한다.