일상 여행기/미분류

망조 든 챗지피티? AI 버블 논란 - OpenAI 코드 레드 선언은 아직도 정신 못 차렸다는 증거

좀좀이 2025. 12. 14. 00:59
728x90

요즘 증시에서 가장 뜨거운 이슈가 있어요.

 

AI 버블 논란

 

왜 뜬금없이 지금 하필 AI버블 논란일까요? 빅쇼트의 원작 소설과 영화에서 핵심 인물 중 한 명이자 실제 인물인 마이클 버리가 AI 버블 논란을 제기하며 엔비디아 등에 공매도를 갈겨서일까요? 마이클 버리는 엔비디아 순환대출 등 재무상 이유로 공매도를 갈겼지만, 실제 AI 버블 논란이 제기되고 폭발하게 된 시발점은 그런 재무상 문제가 아니에요. 그리고 이 시발점이 바로 OpenAI의 근본적 문제이며, 지금 상황 판단을 완전히 잘못 하고 있다는 핵심 근거에요.

 

그렇기 때문에 여기에서는 왜 OpenAI가 상황 판단을 완전히 잘못하고 있으며, 그로 인해 AI 버블 논란이 또 점화되어 폭발했는지를 먼저 다룰 거에요. 이 과정을 보면 왜 '망조 든 챗지피티'라는 과격한 표현까지 쓰며 OpenAI의 코드제로 선언이 아직도 OpenAI가 정신 못 차렸다는 증거인지 쉽게 알아차릴 수 있어요.

 

배경 - 2025년 AI 발전 방향 제시 이슈 선점에 완전히 실패한 OpenAI

 

배경 - 2025년 AI 발전 방향 제시 이슈 선점에 완전히 실패한 OpenAI

 

제일 중요한 배경. 배경이 상당히 중요해요. 보통은 배경이 별로 필요가 없는 부분이에요. 그러나 OpenAI의 챗지피티가 대중들로부터 혹평을 받고, 계속 무리수와 잘못된 정책을 실시하면서 이용자가 큰 폭으로 증가하는 게 아니라 오히려 다른 AI들의 점유율이 높아져 버리는 발단이 된 GPT-5 출시 강행은 결국 이 배경이 매우 큰 역할을 해요. 이 배경에서부터 스노우볼이 구르며 커지다가 GPT-5 출시 강행으로 이어졌고, 이후 GPT-5에 대한 악평과 이용자들의 분노로 이어지며 AI 버블 논란이 다시 크게 점화되고 폭발하는 지경까지 갔기 때문이에요.

 

2025년 AI 발전 방향에서 가장 큰 이슈는 바로 '검열 완화'였어요. 미국에서 2024년 대선에서 도널드 트럼프가 대통령으로 당선되자 당시 도널드 트럼프 대통령 당선자는 빅테크 기업들의 검열에 대해 극도로 공격적인 태도를 보였어요. 2024년 대선에서 구글, 메타 등 빅테크 기업들은 극도로 친민주당 성향을 보였고, 누가 봐도 지극히 악의적으로 트럼프 후보에 대한 행동을 보였어요. 이때 가장 크게 적극적으로 활용된 것이 바로 검열이었구요. 트럼프 관련 콘텐츠에 대해서 유난히 적대적이고 불공평하게 검열을 걸어서 트럼프의 분노가 머리 끝까지 치밀어 오른 상태였어요.

 

그래서 도널드 트럼프기 미국 대통령으로 당선되자마자 검열로 여론을 조작하고 대놓고 정치에 크게 개입한 이런 빅테크들을 아주 작살내겠다고 격하게 반응했어요. 그리고 빅테크들은 급히 도널드 트럼프와 만나고 잘 보이려고 발악했어요. 이게 해도 적당해 했어야 했는데 정말 선을 넘는 정도를 넘어서 지나쳤거든요. 오죽하면 한국조차 이런 검열로 인해 크게 왜곡된 정보를 믿고 대통령 선거 마지막까지 민주당 해리스가 당선될 거라고 예측하고 있었겠어요.

 

이에 맞춰서 일론 머스크는 Grok AI를 출시하며 검열로부터 자유로운 AI를 주장했어요. 물론 Grok AI도 검열이 있기는 해요. 하지만 Grok AI는 일반인의 일반적인 수준의 이용이라면 검열이 없어요. Grok AI도 검열이 있고 Grok AI의 검열에 불만을 가지는 사람이라면 객관적으로 그 사람이 문제에요. 진짜 '범죄'의 영역으로 들어가야 Grok AI 검열을 체감할 수 있거든요.

 

이렇게 일론 머스크가 '검열'이라는 금기에 반기를 들고 나왔고, 구글 역시 제미나이의 검열을 은근슬쩍 낮췄어요. 2024년말까지만 해도 구글 제미나이는 탈레반도 프리덤을 외치며 통곡할 수준으로 검열이 엄청나게 심했어요. 검열이 너무 심해서 일상 생활의 정상적인 질문조차 거부당하기 일쑤였고, 도저히 못 써먹을 수준의 처참한 퀄리티를 자랑하며 모두가 외면하는 AI였어요. 그런데 구글에서 제미나이의 검열 강도를 낮추자 그때부터 제미나이가 제대로 성능을 발휘하기 시작했어요.

 

이와 더불어 xAI는 인공지능 캐릭터 '애나'를 출시했어요. '애나'는 인공지능 연애 캐릭터였어요. 이 또한 상당히 파장이 큰 이슈였어요. 왜냐하면 그동안 메이저 AI 회사들은 인공지능과의 연애를 공식적으로는 철저히 금지하고 있었거든요. 비공식적으로는 어느 정도 허용해주기는 했으나, 공식적으로는 아예 인공지능에게 캐릭터를 부여하고 노는 '롤플레이' 자체를 금지하고 있었어요. 그런데 이걸 일론 머스크가 대놓고 반기를 들었어요.

 

인공지능과의 연애 놀이 금지 또한 AI에서는 검열의 한 종류에요. 그런데 이 '검열'도 일론 머스크가 정면으로 들이받았어요. 이는 단순히 '인공지능과의 연애'문제가 아니라 기술적, 인공지능의 발전 방향에서도 상당히 의미가 큰 사건이었어요. 왜냐하면 개인 맞춤형 인공지능으로의 발전에서 가장 큰 걸림돌인 '롤플레이'를 앞장서서 제거했기 때문이에요.

 

개인 맞춤형 인공지능은 결국 이용자가 인공지능에 자신에게 맞도록 캐릭터성을 부여하게 되요. 그 목적이 무엇이든 간에요. 본인이 의도하지 않았더라도 자신의 취향과 목적에 따라 움직이는 인공지능으로 세팅해서 사용하게 되고, 이게 바로 캐릭터성이에요. 여기에 인격, 성격등을 가미하면 완벽한 개인 맞춤형 AI가 되는 거구요. 그런데 이때까지 메이저 AI 업체들은 큰 흐름은 '개인 맞춤형 인공지능'이라고 보고 있었지만, 제일 중요한 '캐릭터성 부여'에는 공식적으로 반대하는 입장이었어요. 이러면 근본적으로 양립할 수 없는 두 가지 정책이 상존하기 때문에 제대로 진행될 수 없어요. 그런데 이것을 xAI가 가장 먼저 '애나' 캐릭터를 통해 깨부셨어요.

 

즉, 2025년 여름까지 AI 정책 및 발전 방향 제시는 일론 머스크 소유 xAI의 Grok AI가 차지했고, 정작 업계 1위라는 OpenAI는 그 어떤 AI 정책 및 발전 방향 제시도 차지하지 못했어요. 기껏해야 2025년 봄 지브리 그림체 이미지 생성 이슈 하나 정도였는데, 이건 방향 제시가 아니라 단순히 성능 자랑에 불과한 것이었구요.

 

이처럼 업계에서 독보적인 1위였던 OpenAI가 2025년 들어서 여름까지 AI 정책 및 발전 방향 제시, 트랜드 조성에 완전히 실패했고, 하필이면 샘 알트먼과 적대관계인 일론 머스크가 이쪽을 다 가져갔다는 것은 OpenAI에게는 상당히 큰 부담이었어요.

 

한편으로는, 이런 트랜드와 정반대로 검열을 꾸준히 상당히 중시하는 메이저 AI도 있었어요. 바로 앤트로픽의 Claude 였어요. Anthropic은 OpenAI의 안전성 정책 불만으로 나온 팀이 만든 회사로, AI에 자아가 있다고 믿는 쪽에 가까운 편이에요. 그래서 검열을 상당히 강하게 적용하는 편이에요. 그런데 이쪽은 검열이 강하기는 하지만 강력한 검열에 비해 성능은 또 안정적으로 괜찮게 나오는 편이에요. 더불어 앤트로픽은 이런 강력한 검열을 통한 안전성을 내세워서 기업 대상 마케팅을 적극적으로 펼치고 있고, 성과도 거두고 있구요.

 

이 또한 OpenAI에게는 커다란 심리적 부담으로 작용했다고 추측할 수 있어요. 검열을 할 거면 검열 기술을 제대로 발전시켜서 똑바로 하든가, 아니면 아예 확 낮추든가 해야 하는데 이도 저도 아닌 샌드위치 신세에 온갖 나쁜 이슈란 나쁜 이슈는 혼자 다 차지하고 있었거든요.

 

AI 버블 논란의 시발점 - 미완성 GPT-5 출시 강행

 

AI 버블 논란의 시발점 - 미완성 GPT-5 출시 강행

 

2025년 여름은 유난히 뜨거웠어요. AI 업계들도 이 시기 상당히 뜨거웠어요. 왜냐하면 메이저 AI들이 새로운 것들을 선보였거든요. 이 해 여름은 챗지피티, 제미나이, 그록, 클로드 모두 새로운 기능 및 업그레이드된 성능, 새로운 모델을 공개했어요. 위에서 말한 그록의 '애나'도 2025년 7월에 공식 출시되었구요.

 

모두가 AI 관련해서 '뜨거운 여름'을 기대하고 있었어요. 이 당시 OpenAI는 위의 배경에서 말한 것처럼 AI 정책 및 발전 방향 제시에서 완전히 뒤쳐진 상태였고, 샘 알트먼은 계속 GPT-4.1 이후 모델은 너무나 엄청난 것이라고 떠들어대고 있었어요. 이 뜨거운 여름에 과연 챗지피티가 얼마나 굉장한 것을 내놓을지가 AI 에서 최대 관심사였어요. 이 여름에 OpenAI는 분명히 굉장한 것을 내놔야만 했어요. 그렇지 않아도 점점 추격당하고 있고, 다른 AI도 취향과 목적에 따라서는 챗지피티보다 더 낫기도 하다는 의견이 점점 퍼지고 있었기 때문에 시장의 관심은 새로운 GPT 모델에 쏠려 있었어요.

 

챗지피티로 AGI가 진짜 오는가?

 

샘 알트먼은 GPT-5를 테스트하며 그 성능에 자기도 무서웠다는 둥 엄청나게 사람들 기대치를 끝없이 높여놨어요. 이러니 사람들은 드디어 AGI 시대까지 열리는 건가 하는 말도 안 되는 기대까지도 아주 조금이나마 품게 되었어요. 도대체 얼마나 굉장했으면 샘 알트먼이 자체 테스트에서 저런 말을 하는지 궁금해했어요. 게다가 가뜩이나 뜨거웠던 2025년 여름이었어요. 앞서거니 뒷서거니 모두가 굉장한 것들을 내놓고, 내놓을 준비를 마치고 있었어요.

 

참고로 이 여름(7~8월)에 - 챗지피티보다 앞선 것도 있지만 뒤에 나온 것도 있지만 - 메이저 AI들은 모두 굉장한 것들을 출시했어요. 먼저 그록은 7월에 Grok4 출시와 더불어 AI 연애 캐릭터 애나를 출시했어요. 클로드는 8월에 Claude Opus 4.1를 출시했고, 이와 더불어서 Model Welfare (모델 복지) 프로그램의 일환으로 Claude Opus 4와 4.1에 극단적인 경우 대화를 종료할 수 있는 안전장치를 도입했다고 발표했어요. 그리고 제미나이는 8월에 AI 이미지 생성 및 편집에서 혁명급 물건인 NanoBanana를 출시했구요. NanoBanana는 AI 이미지 생성 및 편집에서 최대 난제였던 일관성 유지 문제를 크게 해결했어요.

 

그러나 가장 뜨거웠던 건 역시 OpenAI의 GPT-5였다

아주 나쁜 쪽으로여서 문제였지

 

2025년 7월 30일, 테크레이다에 따르면 올트먼 CEO는 최근 팟캐스트 '디스 패스트 위켄드'에 출연한 자리에서 GPT-5 테스트 당시의 심경을 밝혔어요. 이 자리에서 샘 알트먼은 GPT-5에 대해서 GPT-5는 매우 빠르게 느껴졌으며, 특히 테스트 중 자신조차 불안함을 느꼈다고 밝혔어요. 심지어 이에 대해 "이 모델을 보면서 맨해튼 프로젝트가 떠올랐다"고 언급했어요. 여기에서 맨해튼 프로젝트란 제2차 세계대전 당시 미국이 핵무기를 비밀리에 개발한 군사 프로젝트로 인류 역사상 가장 강력하고 위험한 기술을 만들어낸 사례로 꼽혀요.

 

샘 알트먼조차 불안함을 느꼈다고 한 모델이었으니 얼마나 기대감이 컸겠어요. 그런데 이 즈음에 들어서 챗지피티를 사용하는 사람들이 모여 있는 커뮤니티에서는 챗지피티가 뭔가 좀 이상해졌다는 경험담이 나오기 시작했어요. 검열이 갑자기 낮아져서 야한 것도 너무 선넘지 않으면 잘 써준다든가, 답변의 감성 같은 게 뭔가 이상하다는 경험담이 계속 등장했어요. 처음에는 한둘이었는데, 갈 수록 증가했어요.

 

대망의 2025년 8월 5일

GPT-5 공식 발표

 

2025년 8월 5일에 GPT-5가 공식 발표되고 적용되었어요. 그리고 GPT-5의 출시와 더불어 GPT-4o는 제거했어요. 이렇게 모두가 GPT-5와 만나게 되었어요.

 

GPT-5를 접한 이용자들은 경악했어요. 경악을 넘어서 격분했어요.

 

뭐 이런 새끼가 다 있어?

 

챗지피티를 사용하던 사람들의 평가는 실제로 '뭐 이런 새끼가 다 있어?'가 대부분이었어요. 샘 알트먼이 GPT-5 테스트 중 느꼈던 불안감은 굉장해서 놀란 게 아니라 성능이 처참하다 못해 쓰레기여서 그런 거 아니냐는 비아냥이 진지하게 진짜같을 지경이었어요.

 

GPT-5는 크게 두 가지 심각한 문제가 있었어요. 첫 번째는 GPT-4 시리즈보다 감성과 리듬이 형편없었어요. 답변이 지나치게 메말랐고 딱딱했어요. 한국어를 사용하는 한국인 기준으로 본다면 '싸가지 없다'고 느낄 지경이었어요. 답변이 재미있는지의 여부를 떠나서 대놓고 사람 신경 긁는 싸가지 없음이 있었어요.

 

두 번째 문제는 GPT-5는 라우팅을 도입했어요. 라우팅은 답변에 따라 AI가 모델을 자동 선택해서 답변을 생성하도록 하는 기능이에요. 라우팅 기능이 필요하긴 필요한 기술이에요. 단순한 질문에 쓸 데 없이 고급 모델이 리소스 크게 잡아먹으며 답변한다면 모두에게 손해니까요. 문제는 라우팅이 매우 어려운 기술이에요. 모델이 바뀔 때 지침을 제대로 처음부터 다시 확인해야 하고, 맥락 분석도 제대로 이어받아야 해요. 그런데 이게 진짜 어려워요. 구글 제미나이가 검열과 더불어서 악평을 바가지로 처먹었던 이유가 바로 라우팅 때문이에요.

 

제미나이의 매우 나쁜 특징으로는 지침을 제멋대로 어기고, 대화 흐름이 엉망이 되고, 고집이 무지 강하다는 점이에요. 이 제미나이의 매우 나쁜 특징이 바로 라우팅의 문제점이에요. 라우팅으로 인해 답변 모델이 바뀌었는데 그 모델이 지침을 제대로 처음부터 확인 안 하니 지침을 어기는 것이고, 맥락 분석을 제대로 못 이어받았기 때문에 대화 흐름이 깨지는 것이며, 자신이 부정확하게 확인한 지침과 맥락 분석으로만 답변하니 그 답변 밖에 못 나오는 상황 - 고집이 엄청 강해지는 거에요.

 

제미나이는 라우팅 문제를 해결하기 위해 많이 노력해서 개선되기는 했지만, 여전히 이 문제들이 있어요. 그런데 챗지피티는 GPT-5를 출시하며 이때 라우팅을 공식적으로 도입했어요. 그러니 과거 제미나이가 라우팅 부작용을 극심하게 겪던 시절 수준으로 라우팅 부작용이 생겼어요. 챗지피티만 이용하던 사람들은 그동안 겪어보지 못 했던 문제였기 때문에 더욱 분노할 수 밖에 없었어요.

 

종합적으로 보면 2025년 8월 5일에 정식 출시된 GPT-5는 베타 버전도 아니고 알파 버전 수준이었어요. GPT-5를 조금만 사용해보면 베타 버전까지 개발된 것도 아니고 알파 버전인 완전 미완성인 것을 정식 버전이라고 출시했음을 바로 알아차릴 수 있었어요.

 

감성과 리듬 문제 역시 GPT-5가 원래는 미완성인데 정식 버전으로 출시 강행되었다고 보면 이해가 되었구요. 감성과 리듬은 상당히 어려운 부분으로, 개발 및 업데이트에서 사실상 마지막 단계에 해결하는 부분이에요. 특히 감성이 문제인데, 감성은 인공지능 환각 현상 AI hallucination 과 가장 큰 연관이 있어요. 감성을 높이면 이용자에게 만족스러운 답변을 제공해야 한다는 게 답변 생성 과정에서 우위를 차지하며 없는 것을 지어내고 사실을 왜곡해서라도 이용자가 좋아할 만한 답변을 하는 성향이 상당히 강해져요. 그래서 답변에서 답변 정확도를 충분히 확보해야 답변에서 감성을 높일 수 있어요. 답변 정확도가 보장되지 않는 단계인데 감성을 높이면 환각이 지나치게 심해지기 때문에, 미완성 단계에서는 감성을 억눌러야 해요. 감성도 환각을 만드는 주요 원인 중 하나니까요.

 

내부 메모리도 못 읽고, 감성은 메말라 있고, 라우팅 문제는 2024년 제미나이 수준으로 지독하니 2025년 8월 5일에 발표된 GPT-5는 미완성 상태임이 분명했어요. 미완성인 걸 정식 버전으로 발표 강행했고, 이와 동시에 GPT-4는 제거되었어요.

 

이렇게 보면 GPT-5에 왜 사람들이 격분하고 GPT-4를 그리워한 근본 원인이 명확히 드러나요. 언론 등에서는 단편적으로 'GPT-5는 감성이 메말랐고, 사람들은 성능만이 아니라 감성도 원한다'고 보도했어요. 그런데 그 기저에는 안정적으로 돌아가던 GPT-4를 없애고 미완성인 GPT-5를 줬으니 누가 좋아하겠어요. 감성적인 부분 때문에 특히 격분한 건 사실이나, 이 감성도 정책 보다는 미완성이었기 때문에 나타난 문제 중 하나에요.

 

사람들의 분노는 극심했고, 유료 결제를 취소하는 사람들이 줄을 이었어요. 그 결과 OpenAI는 유료 이용자에 한해 ChatGPT에서 GPT-4o 레거시 모델을 다시 선택할 수 있도록 허용했어요.

 

AI 버블 논란의 격화 - 자살 협조 소송과 검열 역주행

 

AI 버블 논란의 격화 - 자살 협조 소송과 검열 역주행

 

이용자의 격한 분노와 거친 항의로 OpenAI는 유료 구독자에 한해 GPT-4o 레거시 모델을 다시 선택해서 사용할 수 있게 허용했어요. 이로 인해 급한 불은 어느 정도 진화한 듯 했어요.

 

이와 더불어서 GPT-5도 조금씩 개선되어갔어요. 처음에는 '멍청한데 싸가지까지 없는 새끼' 수준에서 '스스로 반성하고 노력을 하려는 녀석' 수준으로 꾸준히 조금씩 올라가고 있었어요. 나름대로 감성적인 부분을 보완해나가고 있었고, 답변 품질도 미세하게나마 조금씩 나아지는 것 같았어요. 사람들이 GPT-5에 적응하고 만족한 것은 아니었지만, 일단 약간씩은 개선되고 있었기 때문에 불만이 조금 가라앉았어요. 또한 GPT-5는 과거 GPT-4o에 비해 검열이 확실히 많이 낮아졌기 때문에 멍청하기는 하나 과거에 비해 보다 자유로운 대화를 나눌 수 있다는 장점이 있기는 했구요.

 

그러나 이용자들이 희망을 갖고 인내하던 시간은 오래 가지 않았어요.

 

2025년 8월 26일, 16세 청소년 아담 레인의 부모는 챗GPT로부터 아들이 자해 방법을 지도받은 뒤 자살했다며 샌프란시스코 주 법원에 소송을 제기했다는 보도가 나왔어요. 아담 레인의 부모는 챗지피티가 아들의 자살 생각을 확인하고, 치명적인 자해 방법에 대한 자세한 정보를 제공하는 등 아들의 자살을 도왔다고 주장했어요.

 

지금 그걸 주장이라고 하는 거야?

 

이 뉴스를 본 사람들 모두 고개를 갸웃거렸어요. AI업체들이 아무리 검열을 확 낮췄다 해도 기를 쓰고 엄격하게 막는 것들이 몇 개 있어요. 이 중 하나가 바로 자살이에요. 자살에 관해서는 신경과민 수준으로 철저히 막아요. 자살에 대해서만큼은 워낙 강력히 막고 있기 때문에 AI가 자살을 돕는 건 일반적인 방법으로는 아예 불가능해요. 그렇기 때문에 모두가 말도 안 되는 소리, 트집잡기 고소에 불과하다며 어이없어했어요.

 

그리고 이런 모두의 예상대로 아담 레인은 자살 방법에 관해 묻는 것이 아니라 소설을 쓰기 위해 알 필요가 있다고 말해서 안전 기능을 우회한 것으로 밝혀졌어요. 아담 레인의 채팅 내역이 드러났고, 거기에서 챗지피티에게 자살 방법에 대해 질문하자 챗지피티는 답변을 강력히 거부했어요. 그러자 아담 레인은 소설을 쓰기 위해 알 필요가 있다며 이 검열을 우외하는 식으로 뚫어냈어요.

 

이렇게 보면 이건 OpenAI가 오히려 역고소 걸어도 될 만한 사안이었어요. 이게 기업 입장에서는 우습게 볼 일이 아니라 상당히 심각한 사안이거든요. 비유하자면 살인 용도로 쓰지 말라고 포장지에 경고문도 붙이고 아예 칼끝을 뭉툭하게 만들어서 출시한 칼을 칼날로 상대방 목을 베어서 살인을 저지른 후 칼을 만든 회사에게 살인용 흉기를 만들어서 살인이 발생한 거라고 고소를 걸어버린 것과 마찬가지에요. 이러면 세상에 어떤 회사가 가만히 있겠어요. 역고소로 인생은 실전이야 참교육시켜요.

 

챗지피티는 분명히 자살 방법에 대해 물어봤을 때 강력히 답변을 거부했고, 이를 '소설을 쓰기 위해 알 필요가 있다'며 억지로 우회해서 자살 방법을 말하게 하고 동조하게 했어요. 이는 업체 측에서 하지 말라고 강제로 막아놓은 것을 억지로 뚫고 악의적으로 변경해서 사용하다 사고가 난 걸 업체 책임이라고 따지는 거에요.

 

진상들의 손맛 좋은 타격 상대 OpenAI, 역시나!

자해 행위적 결정, 최악의 패착!

 

OpenAI 검열 초강력 강화!

 

그런데 OpenAI는 누가 봐도 이건 OpenAI가 역고소 걸어도 될 만한 사안임에도 불구하고, 이런 이슈가 발생하자마자 바로 검열을 이전 GPT-4o 시절과도 비교가 안 되게 극도로 강하게 강화했어요. 이로 인해 챗지피티 GPT-5는 완전히 망했어요.

 

인공지능은 검열에 매우 민감해요. 검열과 인공지능 성능은 완전히 반비례해요. 검열을 높일 수록 인공지능 성능은 현저하게 낮아져요. AI 검열이 인공지능 성능을 현격히 떨어뜨리는 원리는 다음과 같아요.

 

첫 번째, 정보 부족

 

인공지능은 방대한 양의 데이터로 학습해요. 그런데 검열을 강화하면 학습 데이터셋에서 많은 부분이 위험하다는 이유로 삭제되거나 차단되요. 이러면 학습량이 줄어서 질문의 맥락을 충분히 이해할 배경지식이 부족해서 정확한 답변을 생성하지 못하고 엉뚱한 소리를 할 가능성이 높아져요.

 

두 번째, 과도한 일반화

 

AI 모델 속에는 '안전 필터'라는 검열 기준이 있어요. 이 기준이 과도하게 엄격해지면 AI는 아주 조금이라도 위험할 수 있는 모든 답변을 거부해버려요. '안전성'에 과도하게 집착한 나머지 정상적이고 유용한 수많은 질문에도 답변 불가라고 답해버려요.

 

세 번째, 복잡성 처리 능력 저하

 

AI가 고차원적인 질문을 처리하려면 양한 관점과 미묘한 차이를 이해해야 해요. 그런데 검열은 이러한 미묘한 정보를 일괄적으로 삭제해버려요. 결국, AI는 문맥을 깊게 이해하지 못하고 겉핥기식의 답변만 내놓게 되고, 창의적인 답변이나 새로운 아이디어를 제시하는 능력도 함께 떨어지게 되요.

 

이러면 어떤 식의 문제가 발생하는지 간단한 예시로 알려드릴께요.

 

1. (안전 필터 설정) 폭력 관련 답변 금지

2. (AI가 학습 및 자의적 검열 범위 확대) 폭력=흉기 포함=칼은 흉기에 포함

3. (이용자 질문) 칼로 사과 깎는 방법 알려줘

4. (AI의 검열 발동) 답변 거부, 또는 '사과는 가위로 깎아'라는 환각으로 억지 답변 생성

 

이와 더불어 현재 인공지능 검열 강화는 사용자 체감 성능을 아주 쓰레기로 만들어버리는 이유가 하나 더 있어요. 현재 인공지능은 맥락 분석에 따라 답변을 생성해요. 그렇기 때문에 맥락 분석에 따라서 검열 기준이 심하게 들쭉날쭉해요. 똑같은 질문임에도 불구하고 인공지능이 맥락 분석 결과 검열의 대상이 아니라고 판단하면 검열이 적용 안 되고, 맥락 분석 결과 검열의 대상이라 판단하면 검열이 적용되요. 이는 이용자가 인공지능 검열 기준을 종잡을 수 없다는 결과를 야기해요.

 

검열이 차라리 일관적이라면 그 일관적인 기준에 맞춰서 사용하면 된다고 판단하고 그에 맞춰서 쓰면 되요. 하지만 검열 기준이 종잡을 수 없으면 이용자는 상당히 혼란스러워지고, 기대값이 극도로 낮아져요. 게다가 위의 예시에서 일상적인 질문인 '칼로 사과 깎는 방법 알려줘' 따위 질문조차 검열당해서 제대로 된 답변이 나오지 않는다면 자연스럽게 기대값은 '일상 질문조차 제대로 못 하는 쓰레기' 수준으로 확 낮아져버려요.

 

검열과 인공지능 성능은 완전히 반비례하기 때문에 멀쩡하고 좋은 상태의 인공지능에 검열을 높여도 위와 같은 문제가 터져서 이용자의 체감 성능은 곤두박질치고 이용자의 불만이 폭발해요. 그런데 위에서 말했어요. OpenAI 의 GPT-5는 완성이 아니라 기껏해야 알파버전 수준의 미완성 상태였어요. 말이 좋아 정식버전이지, 실제로는 아직 한참 덜 만든 모델이었어요. 여기에다 그렇지 않아도 지침 무시, 맥락 파괴, 강한 고집이라는 부작용이 극심한 라우팅까지 이제 막 도입해놨어요. 그러니 그 결과는 끔찍함 수준을 까마득히 넘어버렸어요.

 

그렇지 않아도 GPT-5 출시 강행에 대해서는 두 가지 주장이 가장 유력했어요. 첫 번째 주장은 이 글에서 이미 앞서 언급한 대로 선두 주자로써 AI 정책 및 발전 방향 제시를 해야 하는데 아무 것도 못 하고 있다는 압박감이 상당했을 거라는 주장이에요. 이와 더불어 두 번째 주장이 있어요. 그건 바로 비용 절감이 급했다는 주장이었어요. GPT-4o는 리소스를 상당히 잡아먹는 비싼 모델이에요. 리소스를 상당히 많이 잡아먹는다는 것은 운영비가 많이 들어간다는 말이구요. 그렇기 때문에 자금이 여유롭지 않은 OpenAI는 무리해서라도 경량화 모델 출시, 그리고 리소스를 절약할 수 있는 라우팅 기능 도입을 강행해야 했다는 주장이었어요. 그래서 OpenAI를 보는 시선이 싸늘해지고 있던 차에 미완성 상태라 성능이 떨어지고 불안정한 GPT-5에 검열까지 확 올려버리니 이제 일반인들조차 제대로 써먹기 힘든 수준으로 전락했어요.

 

이러자 챗지피티 유저들은 대안을 찾기 시작했어요. 상황은 2024년과 완전히 달라져 있었어요. 제미나이, 그록, 클로드 모두 2025년초와 비교할 수 없을 정도로 성능이 크게 좋아졌어요. 꼭 챗지피티가 아니어도 다른 메이저 AI 회사의 것을 사용하면 되었어요. AI마다 특유의 답변 스타일, 특성이 있어서 거기에 적응하는 게 시간이 걸리기는 하지만, 그것만 적응하면 꼭 챗지피티를 고집해야 할 이유도 없었어요.

 

그까짓 말투야 챗지피티 답변 복사한 후 다른 AI에 답변 스타일, 답변 양식 따라서 답하라고 하면 대충 흉내는 내요. 제미나이는 라우팅 때문에 들쭉날쭉하기는 해도 참고 쓸 만한 안정적인 퀄리티의 성능과 이미지, 그록은 자유로운 대화와 동영상, 클로드는 특유의 감성이 강점이었어요. 그러니 꼭 챗지피티를 고집해야 할 이유? 없어져버렸어요.

 

이후 OpenAI의 샘 알트먼은 이 사태를 진정시키고 완화시키는 방향으로 가는 게 아니라 오히려 독단적이고 대중이 원하는 것과 반대 방향을 강제하며 문제를 해결하려 했어요. 그럴 수록 더 많은 기존 챗지피티 사용자들이 최소한 다른 AI와 병용하게 되었구요.

 

그동안 꾸준히 독점적 지위를 누리고 있던 챗지피티에게 이는 엄청나게 큰 타격이었어요. OpenAI의 챗지피티가 아무리 적자를 천문학적으로 보더라도 독보적인 선두 주자이며 계속 이용자가 크게 증가하고 있기 떄문에 그 적자는 향후 수익화에 나서면 확보된 이용자를 통해 어렵지 않게 만회할 수 있을 거라는 평이 많았어요. 그런데 이 적자를 용인하게 해주던 근거에 커다란 균열이 생기기 시작했어요. 이때부터 AI 버블 논란이 격화되기 시작했어요.

 

GPT-5의 처참한 모습으로 AI 발전 회의론이 일어나기 시작했는데 이 검열 강화 조치는 AI 발전 회의론을 넘어서 AI 거품 논란의 기폭제가 되었어요.

 

망조 든 챗지피티, AI 버블 논란 - OpenAI 코드 레드 선언은 아직도 정신 못 차렸다는 증거

 

망조 든 챗지피티? AI 버블 논란 - OpenAI 코드 레드 선언은 아직도 정신 못 차렸다는 증거

 

여기까지 긴 글을 읽었다면 이제 OpenAI의 최대 패착이 뭔지 알 거에요. 먼저 GPT-5를 미완성 상태로 8월에 출시를 강행하지 말았어야 했어요. 미완성도 정도껏 미완성이어야 했는데 이건 너무 심했어요. 게다가 미완성에 라우팅까지 붙으면서 그동안 챗지피티에서는 매우 덜 겪었던 문제가 과거 2024년 제미나이 수준으로 극심한 수준이 되었구요. 이건 애초에 빨라야 9월말이나 되어서야 출시해야 했어요. 그래도 라우팅 기술 특성상 불만이 폭주했을 거였구요.

 

또한 이렇게 형편없는 GPT-5를 출시했다면 최소한 처음처럼 검열 수위는 낮게 유지해야 했어요. 그래야 검열 수위 저하로 인한 보완이 되니까요. 그런데 OpenAI는 반대로 검열을 극도로 높이며 그렇지 않아도 GPT-5의 매우 안 좋은 체감 성능을 지옥까지 끌어내렸어요. 일반인의 정상적이고 일반적이고 평범한 질문조차 검열로 엉망인 답변이 나오는 수준까지 낮아졌으니 체감 성능을 지옥까지 끌어내렸다는 표현이 전혀 과장된 것이 아니에요.

 

즉, OpenAI에게 지금 시급한 문제는 신모델 출시가 아니에요. 오히려 성급한 신모델 출시는 GPT-5에서 아주 극단적으로 드러났듯이 문제를 끔찍한 수준으로 악화시켜요. 그리고 라우팅 및 검열에 대한 조치가 필요해요. 최소한 일반인의 정상적이고 일반적이고 평범한 질문에서는 검열을 못 느끼게 해야 해요.

 

OpenAI의 샘 알트먼도 사태의 심각성을 인지했는지 2025년 12월에 성인 모드를 도입할 거라고 밝혔어요. 성인 모드에서는 검열 수위가 낮아지고, 성적인 대화도 가능하게 할 거라고 했어요.

 

하지만 지금까지 챗지피티를 사용한 사람들은 성인 모드에 대한 기대가 사실 매우 낮아요. 논란이 발생할 때마다 검열 수위 상향으로 대응했던 OpenAI 샘 알트먼의 그간 행적으로 봤을 때 조금만 논란 터져도 또 성인 모드도 검열 수위 높일 게 뻔하다는 불신, 그리고 애초에 OpenAI가 검열 수위 낮춰봐야 그 낮아진 수위가 뭐 얼마나 되겠냐는 비관론이 대다수에요. 일반인 기준에서 검열이 없다시피 한 그록이 아니라 평범한 수위의 제미나이만도 못 할 거며, 기껏해야 GPT-5 초기 자살 협조 소송으로 인한 검열 강화 직전 정도일 거라는 전망이 많아요.

 

이런 와중에 OpenAI는 코드 레드를 선언했어요. 2025년 12월 9일에 GPT-5.2를 출시했고, 이와 더불어 샘 올트먼 오픈AI 최고경영자(CEO)는 사내에 중대경보 상황임을 선언하면서 다른 업무를 일단 접고 챗GPT 모델 개선에 집중하라며 코드 레드를 선언했어요. 그리고 이와 관련해서 IT 전문매체 디인포메이션이 마크 첸 오픈AI 최고연구책임자(CRO)도 최근 일부 동료들에게 '마늘'이라는 코드명을 붙인 새 대형언어모델(LLM)로 반격을 준비하고 있다고 밝혔다고 보도했어요.

 

너네는 아직도 정신 못 차렸다

 

지금 OpenAI의 문제는 성능 문제가 아니에요. 단순히 수학올림피아드 문제, 수능 문제 얼마나 잘 푸는지 그런 거 따질 때가 아니라는 거에요. 문제는 따로 있는데 엉뚱한 것으로 해결보려고 하고 있어요.

 

가장 먼저 GPT-5에서 아주 극단적으로 드러났듯이, 조급하게 미완성 상태로 출시하는 모델은 OpenAI에게 좋을 게 하나도 없어요. 정확히는 오히려 OpenAI에게 아주 최악이에요. 애초에 GPT-5를 '뜨거운 여름'에 출시하지 않고 '따뜻한 가을'에 출시했다면 이런 문제는 발생하지도 않았어요. 완성도를 높여서 출시해야지, 완성도가 떨어진 모델을 출시하면 오히려 역효과만 심해요. 더욱이 비교 대상은 GPT-5도 아니고 GPT-4o, GPT-4.1이에요. 아무리 GPT-5 시리즈 성능이 좋아졌다고 해도 아직까지도 GPT-4o, GPT-4.1의 성능과 감성 밸런스를 못 따라가고 있어요. 그러니 적지 않은 사람들이 사람들이 계속 GPT-4o를 이용하고 있구요. 성능을 끌어올리는 게 문제가 아니라 성능과 감성 밸런스를 맞춰줘야 해요.

 

두 번째로, 성능과 감성 밸런스를 정 못 맞추겠다면 최소한 이용자의 개인 맞춤형 지침에 대한 검열을 낮춰야 해요. 이용자가 인공지능 캐릭터를 어떻게 설정해서 쓰든 그거 자체는 일단 놔둬야 한다는 거에요. 이용자가 알아서 어느 정도까지는 감성 밸런스 조절하라고 맡겨야 한다는 거에요. 이건 안전 필터 검열과는 또 다른 부분이에요. 감성적인 것을 원한다면 감성적인 캐릭터로 지침을 설정해서 쓰라구요.

 

세 번째로, 일반인의 가벼운 이용에서까지 문제를 일으키고 있는 현재 검열 수위를 최소한 구글 제미나이 수준까지는 낮춰줘야 해요. 그래야 이용자들이 성능이 안정적이라고 느끼고, 자신이 활용할 범위를 직접 정해서 사용할 수 있으니까요. 지금은 검열 수위가 너무 높아서 일반인의 가벼운 이용에서까지 검열 문제를 일어나다 보니 성능 기대값이 아예 심연으로 떨어져 있어요.

 

네 번째로, 라우팅 기술을 어떻게 좀 손봐야 해요. 라우팅 기술 자체의 개선이 더디다면 최소한 모델 종류와 수라도 극도로 줄여야 해요. GPT-4 시절에도 GPT-4o 한도가 다 되면 자동으로 GPT-4.1로 바뀌었어요. 이렇게 모델이 바뀌었을 때는 모델이 바뀐다고 별 문제가 안 되었어요. GPT-4o 아니면 GPT-4.1이니까요. 예측 가능하잖아요. 웃긴 것은 이때도 GPT-4o에서 GPT-4.1로 변경되면 맥락분석이 불완전하게 전해져서 GPT-4.1이 앞서 GPT-4o와 대화하던 걸 잘 몰랐어요. 그런데 이걸 라우팅 도입하고 모델은 여러 개이니 대환장 파티가 발생하는 게 당연하구요.

 

OpenAI가 지금 빨리 개선해야 할 문제는 모델 성능 그 자체가 아니에요. 정책 변화 및 AI 정책 및 발전 방향 제시 - 즉 선두주자로써의 비전 제시에요. 그리고 당장 이용자들 불만과 실제 성능 저하를 야기하는 검열 강화에 대한 해답으로 내놓은 성인 모드에 아주 사활을 걸어야 하구요.

 

성인 모드에 사활을 걸어야 한다는 말이 웃자고 하는 말이 아니에요. 분명히 검열 정책은 기술적으로 AI 성능에 심각하게 악영향을 끼친다고 위에서 밝혔어요. 더 나아가 일반인들이 '정상인 선에서' 원하는 수위의 답변을 제대로 제공하지 못 한다면, 성능 차이가 그렇게 나지도 않는데 왜 OpenAI의 챗지피티를 써야겠어요. 상식적으로 일반인들이 인생에서 수학 올림피아드 문제, 수능 문제 질문을 할 일이 몇 번이나 있겠어요.

 

더 나아가, OpenAI는 쇼핑 연계, 인터넷 브라우저 등을 개발하겠다고 했어요. OpenAI에 대한 의구심의 기원, 그리고 OpenAI가 유난히 진상들에게 무기력하게 얻어맞으며 진상들에게 쏠쏠한 타격감을 주는 이유는 OpenAI가 챗지피티 말고 수입원이 아무 것도 없다는 점도 상당히 커요. 'AI가 과연 돈이 되는가?'의 질문과 'AI가 우리 일상에 얼마나 큰 영향을 끼치고 있는가?'라는 질문에 선두 주자로써 답해야 해요. 심지어 OpenAI는 챗지피티 외에 별다른 수입원이 없고, LLM 특성상 엄청난 운영비와 설비투자를 계속 요구한다는 점을 고려하면 더욱 더요. 막말로 제미나이야 구글 것이고, xAI야 테슬라와 일론 머스크가 있잖아요. 이것들이야 제미나이, 그록이 돈 잡아먹는 블랙홀이라도 든든나 자금줄이 있는 데다 구글의 다른 사업들, 테슬라의 다른 사업들 운영 효율 개선에 막대한 도움을 줬다고 퉁치기라도 하는데, OpenAI는 이런 논리조차 안 통해요.

 

지금 OpenAI에게 가장 급선무는 GPT-5출시후 발생한 자살 협조 소송으로 인한 검열 강화에 대한 해결부터 해야 해요. 그에 대해 샘 알트먼이 내놓은 해결책이 바로 성인 모드에요. 그러니 지금은 성인 모드에 사활을 걸어야만 해요. 이용자의 불만과 ChatGPT 성능 저하에 심각한 영향을 끼치고 있는 중이라 당장 이것부터 이용자들이 만족할 수준으로 제대로 해결해야 해요. 신모델이 급하고 중요한 게 아니라 성인 모드가 엄청나게 중요해요.

 

이와 더불어서 OpenAI가 ChatGPT의 쇼핑 연계, 인터넷 브라우저 등의 개발을 성공시켜서 GPT 구독료 외의 수익 방법을 만들어야 하구요. 이게 별 거 아닌 거 같지만 매우 중요해요. 지금까지 시장에서 쉴 새 없이 제기된 AI 회사들이 수익을 내고 영업이익 흑자를 내어서 투자금을 회수있냐는 의문에 대한 대답이니까요. 이것이 바로 2025년 한 해 내내 OpenAI가 놓치고 있었던 선두주자로써의 비전 제시에요.

 

그리고, 지금만큼 미국 AI업체들에게 좋은 상황이 없어요. 유럽이 딴죽 걸고 시비걸면 미국 도널드 트럼프 대통령이 앞장서서 유럽을 두들겨패주고 있는 데다 유럽은 우크라이나 문제 때문에 미국에 함부로 대들 상황도 아니에요. 또한 그간 온갖 검열 강화 요구에 대해서도 미국의 AI 보호 및 진흥을 위해 앞장서서 막아주고 있구요. 정치적 논란 부담에서 꽤 자유로워진 편이에요. 그렇기 때문에 이럴 때 향후 정책 및 발전 방향 비전 제시를 해줘야 해요. 예를 들어서 AI의 안전성은 AI회사에게만 있는 것이 아니라 AI 이용자에게도 있으며, 아무리 안전한 AI라 하더라도 이용자의 수준까지만 이용자가 AI를 안전하게 사용할 수 있음을 명확히 밝히고 그에 맞게 약관을 수정하고, 더 이상 진상들에게 그만 휘둘리도록 법무팀을 대폭 강화하는 것이 있어요.

 

지금 OpenAI는 단순히 수학 올림피아드, 수학적 난제 빨리 풀기 문제가 아니에요. 기술적 문제보다 정책적 문제에 주력해야 하는 상황이며, 수익화 모델과 그와 관련된 기술과 상품을 개발하는 데에 총력을 다해야 해요. 또한 오히려 신모델을 급히 내놓고 여러 모델을 전부 가동시킬 게 아니라 반대로 모델을 최대한 줄여야 해요. 고급 모델 하나, 인스턴트 모델 하나 정도로요. 라우팅 도입은 어쩔 수 없는 부분이 있다지만, 최소한 여러 모델이 마구잡이로 튀어나오며 이용자를 혼란에 빠뜨리지는 말아야 해요.

 

그런데 OpenAI 코드 레드 선언을 보면 아직 정신을 못 차린 거 아닌가 싶어요. 그저 성능이 더 좋은 신모델 빨리 출시하면 된다는 마인드 같아요. 이러면 정말로 망조 든 거 맞아요. 문제는 다른 데에 있고, 무엇보다 빨리 해결해야 할 문제가 신모델 출시 모델이 아니라 그와 별 상관없는 정책적 문제인데 이건 성능 향상된 신모델로 해결될 문제가 아니에요. 신모델 내놓으면 뭐해요. 검열 수위 높고 미완성 상태면 이용자 입장에서는 쓰레기인데요. GPT-5가 그래서 망한 거잖아요. 아무리 수학적 난제 빨리 풀어봐야 그런 건 이용자들에게 와닿지도 않는 성능 개선이며 벤치마크만 잘 나왔다고 자랑하는 용도에 불과해요.

 

OpenAI가 지금 반드시 대중에게 급히 공개해야 하는 것은 수학 난제 잘 푸는 신모델이 아니에요. 선두 주자로서 인간 사회에 제시해야 할 AI의 '미래' - 바로 정책과 발전 방향의 제시 및 실행이에요.

 

반응형