1960년대, “지능은 규칙으로 자동화될 수 있다”는 믿음이 만들어지다
1960년대의 AI 연구는 오늘 우리가 상상하는 것보다 훨씬 단순했습니다. 연구자들은 “인간의 사고는 결국 논리 규칙의 조합”이라는 가정 아래, 컴퓨터가 규칙을 충분히 많이 다루게 하면 인간과 같은 지능이 나타날 것이라고 믿었습니다. 당시 연구자들은 컴퓨터가 점점 빨라지는 속도를 보며, “시간문제일 뿐”이라고 자신 있게 말하곤 했습니다.
이런 분위기를 실제로 만든 사례가 바로 ELIZA와 SHRDLU 같은 초기 시스템이었습니다. ELIZA는 몇 가지 패턴 규칙만으로 사람과 대화하는 것처럼 보였고, SHRDLU는 제한된 블록 세계에서 언어를 이해하고 물체를 움직일 수 있었습니다. 작은 데모였지만, 사람들은 그것을 인공지능 전체의 미래로 확대 해석했습니다. 언론도 과하게 부추겼습니다. “컴퓨터가 대화한다”, “기계가 스스로 문제를 해결한다”는 식의 헤드라인이 쏟아졌습니다.
기대가 폭발한 이유: “이 정도면 20년 안에 인간 수준일 것”이라는 착각
ELIZA가 등장하자 대중은 물론 연구자들도 크게 흥분했습니다. 당시 사람들은 대화를 흉내내는 것만으로도 “언어를 이해한다”고 판단했습니다. 그리고 SHRDLU의 성공은 “기계가 문맥을 이해하고 행동도 한다”는 인상을 주었습니다.
하지만 이 시스템들은 극도로 제한된 환경에서만 작동했다는 사실이 충분히 알려지지 않았습니다.
예를 들어 SHRDLU는 블록을 6~7개 올려놓은 “작은 장난감 세계”에서는 완벽했지만, 세상의 복잡한 언어를 만나면 단 한 문장도 처리할 수 없었습니다. 그럼에도 당시 연구자들은 “확장만 하면 된다”는 생각을 버리지 않았습니다.
당시의 낙관은 지금 ChatGPT가 등장했을 때 사람들이 느끼는 충격과 비슷한 면이 있습니다. 단지 그때는 기술적 기반이 턱없이 부족했다는 점만 달랐습니다.
한계가 드러난 순간: 기계가 풀지 못하는 문제들이 쌓이기 시작하다
기대가 커질수록 실제 연구는 반대로 벽에 부딪히기 시작했습니다.
대표적인 예가 퍼셉트론의 한계였는데, 단층 구조만 갖춘 초창기 신경망은 XOR처럼 단순한 문제조차 풀 수 없었습니다. 이 사실이 1969년 민스키와 페퍼트의 연구에서 수학적으로 밝혀지자 “신경망은 쓸모없다”는 인식이 확산됩니다.
자연어 처리도 마찬가지였습니다. 초기 연구는 문장을 규칙으로 정리하면 언어 문제를 해결할 수 있다고 보았지만, 실제 언어는 문맥·상황·세계 지식 같은 복잡한 요소가 얽혀 있습니다. 단순 패턴 매칭으로는 이 문제를 감당할 수 없었습니다.
연구자들은 “조금 더 개선하면 될 것”이라고 생각했지만, 현장의 연구 결과는 기대와 달리 거의 진전이 없었습니다. 작은 데모는 있었지만, 실제 문제를 해결하는 AI는 단 하나도 등장하지 않았습니다.
첫 번째 AI 겨울이 찾아온 진짜 이유
1970년대 초반, 정부와 기관은 AI 연구의 성과가 기대 이하라고 판단하기 시작했습니다.
두 보고서는 사실상 결정타였습니다.
• ALPAC 보고서(1966)
미국 정부가 기계 번역 연구를 평가한 보고서로, 결론은 “진전 없음”.
지원이 대폭 삭감되며 번역 기반 AI 연구 전체가 멈춰섰습니다.
• Lighthill Report(1973)
영국 정부는 AI 연구가 과장되었고 실질 성과가 없다고 평가했습니다.
이 보고서로 영국 대부분의 AI 연구 예산이 끊겼습니다.
이 두 사건 이후, 대학 연구실은 문을 닫았고 연구자들은 일자리를 잃거나 다른 분야로 이동했습니다.
지금 기준에서 보면 당연한 한계였지만, 당시에는 AI가 “실패한 연구 분야”처럼 여겨졌습니다.
이 겨울이 남긴 의미는 의외로 크다
AI 겨울은 “기계가 지능을 갖기 위해 무엇이 필요한가”를 다시 묻는 계기가 됩니다.
규칙만으로는 지능을 구성할 수 없다는 사실, 데이터를 기반으로 한 학습이 필요하다는 사실 등이 이 시기에 드러났습니다.
그리고 이 반성이 1980년대 신경망 재부흥과, 오늘날 딥러닝 시대의 토대가 되었습니다.
즉, 첫 번째 AI 겨울은 실패가 아니라 다음 시대를 만들기 위한 필연적인 정리 과정이었습니다.
meta_know 인사이트
AI의 초기 낙관과 첫 번째 겨울은 “기술보다 기대가 앞서면 어떤 일이 벌어지는가”를 잘 보여주는 사례입니다. 작은 데모의 성공을 전체 지능으로 확대 해석한 순간, 연구는 비현실적 목표에 갇혔습니다. 오늘의 생성형 AI 열풍 역시 같은 패턴을 반복할 수 있기 때문에, 기술의 구조적 한계와 실제 가능한 범위를 정확히 이해하는 태도가 중요합니다.
핵심 정리
- 초기 성공 사례가 실제 한계보다 과도하게 해석되며 낙관이 폭발했다.
- 퍼셉트론, 규칙 기반 시스템, 계산 자원 부족이 기술의 벽이었다.
- 정부 보고서(ALPAC, Lighthill)로 인해 AI 연구 자금이 급격히 끊겼다.
- 첫 번째 AI 겨울은 이후 머신러닝·딥러닝 시대의 중요한 전환점이 되었다.
다음 읽을 거리
첫 번째 AI 겨울을 이해하셨다면, ‘1980–1990년대: 전문가 시스템, 신경망의 재등장, 두 번째 겨울‘을 읽어보시면 AI가 어떻게 다시 부활했고 또다시 어떤 어려움을 겪었는지 알아보실 수 있습니다. 이전 시대를 다시 복습하고 싶으시다면 ‘1950년대: “기계가 생각할 수 있는가?“에서 시작된 질문’으로 돌아가보시는 것도 좋습니다. AI의 철학적 기초가 궁금하시다면 ‘1950 앨런 튜링과 튜링 테스트: AI의 철학적 기초‘를 읽어보세요.
