Originally written: May 2023 | Published on Gorilla PE Insights: March 2026
본 아티클은 2023년 5월 내부 파트너 공유 메모의 공개본입니다.
2023년 5월, 우리는 AI 레이스의 첫 번째 기준점을 설정하려 했다. 당시 시장의 반응은 두 갈래였다. 한쪽은 "세상이 바뀐다"고 했고, 다른 쪽은 "또 다른 거품"이라고 했다. 우리의 판단은 두 진영 모두 틀렸다는 것이었다. 세상이 바뀌는 것은 맞지만, 그 변화의 수혜자는 누구나가 아니다. 그리고 이것은 거품이 아니다. 이 글은 OpenAI 한 회사에 대한 판단이 아니다. AI가 구조적 전환임을 인식하고, 그 전환의 첫 번째 관문이 어디에 있는지를 질문한 기록이다.
1부. 왜 지금인가 — 60년 연구의 임계점 돌파
인공신경망에서 ChatGPT까지: 이것은 갑자기 나온 것이 아니다
ChatGPT를 이해하려면 2022년이 아니라 1960년대부터 시작해야 한다. 인공신경망(ANN) 개념은 1960년대에 등장했다. 그러나 수십 년 동안 AI는 겨울과 봄을 반복했다. 아이디어는 있었지만 세 가지가 없었다. 데이터, 컴퓨팅 파워, 그리고 올바른 아키텍처.
2012년, 딥러닝의 부활. ImageNet 경진대회에서 CNN 기반 AlexNet이 기존 방식을 압도했다. 오류율 15.3% — 이전 최고 기록(26.2%)의 절반 이하였다.
2017년, Transformer의 등장. Google이 "Attention Is All You Need" 논문을 발표했다. 핵심은 Attention Mechanism — 문장 내 모든 단어의 관계를 병렬로 처리하는 방식이다. WMT 2017~2018 번역 경진대회에서 Transformer 기반 모델의 BLEU 스코어는 이전 RNN 방식 대비 약 30% 이상 향상됐다.
2022년 말, ChatGPT. 여기에 OpenAI가 RLHF(인간 피드백 강화학습)를 더했다. GPT-3.5가 "연구자의 실험 도구"였다면, ChatGPT는 "누구나 첫 번째 사용에서 쓸 수 있는 도구"가 됐다. 출시 40일 만에 사용자 1,000만 명, 2달 만에 1억 명. 인스타그램이 같은 수치를 달성하는 데 11개월이 걸렸다.
거품은 기반이 없는 곳에서 생긴다. ChatGPT는 60년의 기초 연구, 10년의 딥러닝 발전, Transformer 아키텍처 혁신, 그리고 RLHF가 교차하는 지점에서 나왔다. 이 임계점을 돌파한 기술은 다시 임계점 아래로 내려가지 않는다.
Scaling Law: 더 많이 넣으면 더 똑똑해진다는 법칙 — 그리고 구조적 과점
스케일링 법칙(Scaling Law)은 OpenAI의 Jared Kaplan과 Dario Amodei 등이 2020년 발표한 논문에서 경험적으로 확인한 법칙이다. 모델의 성능은 파라미터, 데이터, 컴퓨팅 세 가지를 함께 늘릴수록 비선형적으로 향상된다.
수치로 말하면: 파라미터를 10배 늘리면 훈련에 필요한 데이터와 연산량은 약 1,000배 증가한다. 이것이 스케일링 법칙의 핵심 비대칭이다. 2022년 DeepMind의 Chinchilla 연구는 이를 더 정교화했다. 최적 모델 훈련을 위해서는 모델 파라미터 수와 학습 토큰 수의 비율이 약 1:20이어야 한다는 것이 밝혀졌다.
스케일링 법칙에는 또 하나의 현상이 있다. 바로 창발(Emergence)이다. GPT-3.5는 변호사 시험 하위 10%에 머물렀다. GPT-4는 상위 10%다. 파라미터를 늘렸을 뿐인데 수학 추론 능력이 생물학 올림피아드 상위 1% 수준으로 도약했다. 만든 사람조차 예측하지 못했다.
GPT-4 수준 이상의 모델을 학습하려면 인터넷 전체 텍스트 데이터에 필적하는 규모의 훈련 데이터가 필요하다. 이를 감당할 수 있는 조직이 전 세계에 많아도 4~5개다. AI 파운데이션 모델 경쟁은 구조적으로 과점이 불가피하다.
2부. AI 레이스의 첫 번째 기준점 — 2023년 5월 지형도
승자 조건 세 가지
AI 레이스의 승자 조건은 세 가지다. 독점적 데이터 플라이휠, 기술 속도, 그리고 수익화 백본. 2023년 5월 기준, 이 세 가지를 동시에 가진 회사는 OpenAI가 유일하다.
데이터 플라이휠: ChatGPT MAU 1억 명이 매일 생성하는 프롬프트와 피드백이 모델 학습에 재투입된다. 사용자가 많을수록 데이터가 쌓이고, 데이터가 쌓일수록 모델이 좋아진다.
수익화 백본 — Microsoft: Microsoft는 OpenAI에 $10B 이상을 투자하고 약 49% 지분을 확보했다. GitHub, Azure, Bing, Office 365 — 전 세계 오피스 소프트웨어 점유율 90%를 가진 Microsoft의 전 제품군에 OpenAI 기술이 통합된다.
거품이 아님을 증명하는 데이터: MIT Noy & Zhang(2023) 연구에서 ChatGPT 사용 그룹은 동일 작업 완료 시간이 40% 단축되고 품질이 18% 향상됐다. GitHub Copilot은 개발자 생산성을 55% 높였다.
3부. 반론과 응답
환각(Hallucination): LLM의 구조적 한계는 실재한다. 그러나 이것은 "AI가 인지 노동의 상당 부분을 대체한다"는 주장에 대한 반론이 아니다. Noy & Zhang의 실험이 이를 실증했다.
$29B 고평가 논란: 2024년 Forward PSR 기준 약 30배 미만으로 수렴한다. Snowflake 상장 초기 112배, Palantir 40배와 비교하면 무리 없는 수준이다.
스케일링 한계론: 공개 인터넷 데이터 포화 우려는 타당하다. 그러나 이 제약이 강화될수록 독점적 데이터 원천을 가진 플레이어의 상대적 우위가 더 커진다.
결론: AI 레이스가 시작됐다
이 글은 OpenAI가 영원한 승자라는 주장이 아니다. 2023년 5월이라는 시점에서 첫 번째 질문을 제기한 기록이다. AI가 구조적 전환인가, 누가 그 전환의 첫 번째 관문 조건을 충족하는가. 중요한 것은 게임이 시작됐다는 것이다.
[이후 전개]
AI Race는 소수의 파운데이션 모델 플레이어로 예상보다 빠르게 수렴했다. OpenAI ARR은 2025년 기준 $3.4B+에 도달했고, Google Gemini가 예상보다 강하게 반등했으며, Anthropic이 엔터프라이즈 시장에서 빠르게 성장했다. 2023년 5월의 질문 — AI Race는 과점으로 수렴하는가 — 은 유효했다. 그 안의 순위 판단은 계속 진행 중이다.
투자 권유가 아닙니다.