ChatGPT는 반짝 유행이 아니다 — AI 레이스의 첫 번째 실질적 기준점
Originally written: May 2023 | Published on Gorilla PE Insights: March 2026
본 아티클은 2023년 5월 내부 파트너 공유 메모의 공개본입니다.
---
2023년 5월, 우리는 AI 레이스의 첫 번째 기준점을 설정하려 했다. 당시 시장의 반응은 두 갈래였다. 한쪽은 "세상이 바뀐다"고 했고, 다른 쪽은 "또 다른 거품"이라고 했다. 우리의 판단은 두 진영 모두 틀렸다는 것이었다. 세상이 바뀌는 것은 맞지만, 그 변화의 수혜자는 누구나가 아니다. 그리고 이것은 거품이 아니다. 이 글은 OpenAI 한 회사에 대한 판단이 아니다. AI가 구조적 전환임을 인식하고, 그 전환의 첫 번째 관문이 어디에 있는지를 질문한 기록이다.
---
1부. 왜 지금인가 — 60년 연구의 임계점 돌파
인공신경망에서 ChatGPT까지: 이것은 갑자기 나온 것이 아니다
ChatGPT를 이해하려면 2022년이 아니라 1960년대부터 시작해야 한다. 인공신경망(ANN: Artificial Neural Network) 개념은 1960년대에 등장했다. 그러나 수십 년 동안 AI는 겨울과 봄을 반복했다. 아이디어는 있었지만 세 가지가 없었다. 데이터, 컴퓨팅 파워, 그리고 올바른 아키텍처.
2012년, 딥러닝의 부활. ImageNet 경진대회에서 CNN(합성곱 신경망) 기반 AlexNet이 기존 방식을 압도하며 우승했다. 오류율 15.3% — 이전 최고 기록(26.2%)의 절반 이하였다. 이미지 인식에서 딥러닝이 인간 수준에 근접할 수 있다는 것을 처음으로 증명한 순간이었다.
2017년, Transformer의 등장. Google이 "Attention Is All You Need" 논문을 발표했다. 이것이 GPT의 T다. 핵심은 Attention Mechanism — 문장 내 모든 단어의 관계를 병렬로 처리하는 방식이다. 기존 RNN(순환신경망) 방식이 긴 문맥에서 앞 내용을 잊는 구조적 한계를 근본적으로 해결했다. WMT(Workshop on Machine Translation) 2017~2018 번역 경진대회에서 Transformer 기반 모델의 BLEU 스코어는 이전 RNN 방식 대비 약 30% 이상 향상됐다. 언어 유창성의 정량적 도약이 처음으로 측정 가능한 수준으로 증명된 것이다.
2020년, GPT-3. 1,750억 개의 파라미터를 가진 모델이 처음 등장했다. 이전 모델과 질적으로 달랐다. 그러나 실용성에는 한계가 있었다.
2022년 말, ChatGPT. 여기에 OpenAI가 RLHF(인간 피드백 강화학습: Reinforcement Learning from Human Feedback)를 더했다. GPT-3.5가 "연구자의 실험 도구"였다면, ChatGPT는 "누구나 첫 번째 사용에서 쓸 수 있는 도구"가 됐다. 출시 40일 만에 사용자 1,000만 명, 2달 만에 1억 명. 인스타그램이 같은 수치를 달성하는 데 11개월이 걸렸다.
거품은 기반이 없는 곳에서 생긴다. ChatGPT는 60년의 기초 연구, 10년의 딥러닝 발전, Transformer 아키텍처 혁신, 그리고 RLHF가 교차하는 지점에서 나왔다. 이 임계점을 돌파한 기술은 다시 임계점 아래로 내려가지 않는다.
---
Scaling Law: 더 많이 넣으면 더 똑똑해진다는 법칙 — 그리고 그것이 만드는 구조적 과점
ChatGPT를 이해하는 두 번째 핵심은 스케일링 법칙(Scaling Law)이다. OpenAI의 Jared Kaplan과 Dario Amodei 등이 2020년 발표한 논문 "Scaling Laws for Neural Language Models"(arXiv, 2020.01)에서 경험적으로 확인한 법칙이다. 핵심은 하나다. 모델의 성능은 파라미터(Parameters), 데이터(Data), 컴퓨팅(Compute) 세 가지를 함께 늘릴수록 비선형적으로 향상된다.
수치로 말하면: 파라미터를 10배 늘리면 훈련에 필요한 데이터와 연산량은 약 1,000배 증가한다. 이것이 스케일링 법칙의 핵심 비대칭이다. 2022년 DeepMind의 Chinchilla 연구는 이를 더 정교화했다. 최적의 모델 훈련을 위해서는 모델 파라미터 수와 학습 토큰 수의 비율이 약 1:20이어야 한다는 것이 밝혀졌다.
스케일링 법칙에는 예측 가능한 성능 향상 외에 또 하나의 현상이 있다. 바로 **창발(Emergence)**이다. Google의 Jason Wei 등이 2022년 6월 발표한 논문 "Emergent Abilities of Large Language Models"(arXiv, 2022.06)에서 처음 정식화한 개념이다. "작은 모델에서는 없던 능력이 큰 모델에서 갑자기 나타나는 현상 — 이것은 작은 모델의 성능을 외삽(extrapolation)해서는 예측할 수 없다." GPT-3.5는 변호사 시험 하위 10%에 머물렀다. GPT-4는 상위 10%다. 파라미터를 늘렸을 뿐인데 수학 추론 능력이 생물학 올림피아드 상위 1% 수준으로 도약했다. 만든 사람조차 예측하지 못했다.
GPT-4 수준 이상의 모델을 학습하려면 현재 인터넷 전체 텍스트 데이터에 필적하는 규모의 훈련 데이터가 필요하다. 이를 감당할 수 있는 조직이 전 세계에 많아도 4~5개다. AI 파운데이션 모델 경쟁은 구조적으로 과점이 불가피하다.
---
2부. AI 레이스의 첫 번째 기준점 — 2023년 5월 지형도
승자 조건 세 가지
AI 레이스의 승자 조건은 세 가지다. 독점적 데이터 플라이휠, 기술 속도, 그리고 수익화 백본. 2023년 5월 기준, 이 세 가지를 동시에 가진 회사는 OpenAI가 유일하다.
데이터 플라이휠: ChatGPT MAU 1억 명이 매일 생성하는 프롬프트와 피드백이 모델 학습에 재투입된다. 사용자가 많을수록 데이터가 쌓이고, 데이터가 쌓일수록 모델이 좋아지고, 모델이 좋아질수록 사용자가 더 모인다.
기술 속도: GPT-3에서 GPT-4까지 2년. GPT-4는 GPT-3.5 대비 허용되지 않는 콘텐츠 응답 가능성 82% 감소, 사실 기반 응답 40% 증가.
수익화 백본 — Microsoft: Microsoft는 OpenAI에 $10B 이상을 투자하고 약 49% 지분을 확보했다. GitHub, Azure, Bing, Office 365 — 전 세계 오피스 소프트웨어 점유율 90%를 가진 Microsoft의 전 제품군에 OpenAI 기술이 통합된다. 이 분배 채널은 돈으로도, 시간으로도 복제할 수 없다.
거품이 아님을 증명하는 데이터
MIT 연구 (Noy & Zhang, 2023): 453명의 대졸 직장인 대상 무작위 통제 실험. ChatGPT를 사용한 그룹은 동일 작업 완료 시간이 40% 단축됐고, 산출물 품질은 18% 향상됐다. 글쓰기 실력이 낮은 사람일수록 개선 폭이 컸다. 생산성 불평등이 AI로 오히려 줄어들었다.
GitHub Copilot (Microsoft, 2023): 개발자 대상 통제 실험에서 Copilot 사용 그룹은 자바 웹서버 작성 과제를 55% 더 빠르게 완료했다.
2023년 5월 경쟁자 지형도
회사 기업가치 파트너십 핵심 강점 구조적 한계
OpenAI $29B Microsoft $10B+ (전제품 통합) 데이터 플라이휠 + 분배 채널 수익화 초기 단계
Google 상장사 자체 데이터·연구·TPU 최강 자기잠식 딜레마
Anthropic $4B Google $300M (클라우드만) 안전성 연구 자본·분배 열위
Meta 상장사 자체 오픈소스 생태계 독립 수익 모델 없음
---
3부. 반론과 응답
환각(Hallucination): LLM의 구조적 한계는 실재한다. 그러나 이것은 "AI가 인지 노동의 상당 부분을 대체한다"는 주장에 대한 반론이 아니다. Noy & Zhang의 실험이 이를 실증했다.
$29B 고평가 논란: 2024년 Forward PSR 기준 약 30배 미만으로 수렴한다. Snowflake 상장 초기 112배, Palantir 40배와 비교하면 무리 없는 수준이다.
스케일링 한계론: 공개 인터넷 데이터 포화 우려는 타당하다. 그러나 이 제약이 강화될수록 독점적 데이터 원천을 가진 플레이어의 상대적 우위가 더 커진다.
---
결론: AI 레이스가 시작됐다
이 글은 OpenAI가 영원한 승자라는 주장이 아니다. 2023년 5월이라는 시점에서 첫 번째 질문을 제기한 기록이다. AI가 구조적 전환인가, 누가 그 전환의 첫 번째 관문 조건을 충족하는가.
그 조건 — 독점적 데이터 플라이휠, 기술 속도, 수익화 백본 — 을 동시에 충족하는 회사가 2023년 5월 기준 OpenAI였다는 것이 이 글의 판단이다. Google이 역전할 수 있다. 안전성 규제가 강화된다면 다른 레이어가 부상할 수 있다. 이 게임의 규칙 자체가 바뀔 수 있다.
중요한 것은 게임이 시작됐다는 것이다.
---
[이후 전개]
AI Race는 소수의 파운데이션 모델 플레이어로 예상보다 빠르게 수렴했다. OpenAI ARR은 2025년 기준 $3.4B+에 도달했고, Google Gemini가 예상보다 강하게 반등했으며, Anthropic이 엔터프라이즈 시장에서 빠르게 성장했다. 2023년 5월의 질문 — AI Race는 과점으로 수렴하는가 — 은 유효했다. 그 안의 순위 판단은 계속 진행 중이다.
---
[주요 인용 출처]
Kaplan et al., "Scaling Laws for Neural Language Models," arXiv, 2020.01
Hoffmann et al. (DeepMind), "Chinchilla," arXiv, 2022.03
Wei et al. (Google), "Emergent Abilities of Large Language Models," arXiv, 2022.06
Vaswani et al., "Attention Is All You Need," NeurIPS, 2017
Noy & Zhang, "Experimental Evidence on the Productivity Effects of Generative AI," SSRN, 2023.03
투자 권유가 아닙니다.