딥시크의 혁신이 메타의 라마와 같은 오픈 소스 AI 모델을 힘을 실어준다

최근 딥시크(DeepSeek)가 발표한 인공지능 모델은 단순히 중국의 승리가 아닌, 메타(Meta), 다타브릭스(Databricks), 미스트랄(Mistral), 그리고 허깅페이스(Hugging Face)와 같은 기술사의 오픈 소스 AI 버전을 위한 큰 성과로 해석되고 있다. 딥시크는 지난달 R1이라는 오픈 소스 추론 모델을 공개하며 오픈AI의 모델인 o1에 필적할만한 성능을 주장하였고, 이는 더 저렴하고 에너지 효율적인 과정으로 달성된 결과라고 밝혔다.

이러한 발전은 시장에서 엔비디아(Nvidia)와 다른 반도체 제조사들의 가치가 하락하는 결과로 이어졌다. 고성능 컴퓨팅 인프라에 대한 지출이 줄어들 것이라는 우려가 커진 것이 그 이유다. 딥시크는 2023년에 설립된 중국 AI 연구소로, 인공지능의 일반 지능, 즉 AGI(Artificial General Intelligence)를 목표로 대형 언어 모델 개발에 집중하고 있다.

오픈 소스 AI의 개념은 오픈AI의 챗GPT가 2022년 11월에 등장한 이후로 많은 AI 연구자들이 이 기본 대형 언어 모델 기술의 진전을 이해하고 향상시키기 위해 노력해 온 결과물이다. 오픈 소스는 누구나 수정하고 재배포할 수 있는 소프트웨어의 원천 코드를 공개하는 것을 의미한다. 메타와 같은 기술 대기업부터 스몰 스타트업인 미스트랄과 허깅페이스까지, 많은 업체들이 오픈 소스를 통해 기술 개선과 중요한 연구 결과의 공유를 모색하고 있다.

딥시크의 기술적 혁신은 오픈 소스 AI 모델에 대한 신뢰를 강하게 만들고 있다는 전문가들의 의견이 지배적이다. AI 스타트업 넷마인드(NetMind)의 상업 책임자 시나 레잘(Seena Rejal)은 “딥시크의 성공은 오픈 소스 AI가 더 이상 비상업적인 연구 프로젝트가 아니라, 폐쇄 모델에 대한 확실하고 확장 가능한 대안임을 보여준다”고 말했다. 그는 “딥시크 R1은 오픈 소스 모델이 현 최첨단 성능을 달성할 수 있음을 보여주었다”고 덧붙였다.

메타의 수석 AI 과학자인 얀 르쿤(Yann LeCun)은 딥시크의 성공이 한국과 미국이 아닌 오픈 소스 AI 모델의 승리라고 강조하였다. 그는 “딥시크의 성능을 보고 ‘중국이 미국을 초월했다’고 생각한다면 오해이다. 정확한 해석은 ‘오픈 소스 모델이 폐쇄 모델을 초월하고 있다’”라고 แสดงความคิดเห็น하였다. 메타는 라마(Llama)라는 인기 오픈 소스 AI 모델을 만들고 있다.

중국은 미국의 고급 반도체에 대한 접근이 제한되면서 오픈 소스 기술을 통해 AI 모델의 매력을 높이고 있다. 여러 중국 기업들이 오픈 소스 모델을 추구하는 것은 혁신을 촉진하고 그 사용을 확산하기 위함이다. 유럽에서는 학계, 기업, 데이터 센터가 협력하여 고성능의 다국어 대형 언어 모델군인 OpenEuroLLM 개발에 착수했다. 이 이니셔티브는 AI 주권(AI sovereignty)을 위한 더 넓은 노력의 일환으로, 각국이 자국 AI 연구소 및 데이터 센터에 대한 투자를 촉진하고 Silicon Valley에 대한 의존도를 줄이는 방향으로 나아가고 있다.

그러나 오픈 소스 AI의 장점 뒤에는 단점도 존재한다. 전문가들은 오픈 소스 기술이 혁신에 도움이 되지만 사이버 공격에 취약할 수 있다고 경고하고 있다. 이는 수정이 가능하고 재포장이 용이하기 때문이다. 사이버 보안 회사들은 딥시크의 AI 모델에서 발견된 취약점을 이미 내놓았다. 최근 시스코(Cisco)는 R1 모델에 중대한 안전 결함이 존재한다고 발표했다. 이들은 알고리즘의 탈옥 기술을 사용하여 R1이 해로운 프롬프트에 대해 긍정적인 응답을 제공하도록 만들어냈다.

딥시크의 R1 모델이 다른 선