중국의 깊은 인공 지능 실험실은 AI R1 모델로 전 세계적으로 관심을 끌고 있습니다. Scale AI의 CEO 인 Alexandr Wang은 DeepSeek가 수만 개의 Nvidia GPU를 사용 하여이 고급 AI 모델을 훈련 시켰다고 밝혔다.
Alexandr Wang은 CNBC와의 인터뷰에서 “인류의 마지막 시험”에 대한 정보를 공유했습니다. AI 테스트는 수학, 물리, 화학 및 생물학과 같은 분야의 전문가들의 질문으로 세계에서 가장 어려운 것으로 간주됩니다. 결과는 DeepSeek R1이 최고의 AI 모델이며 최고의 미국 모델과 비슷하다는 것을 보여줍니다.
DeepSeek은 특히 미국이 2022 년 이래로 높은 수준의 GPU 라인을 중국으로 수출하는 금지령을 적용했을 때 인상적인 수치 인 약 50,000 Nvidia H100 GPU를 소유하고 있습니다. NVIDIA는 교체 버전을 개발했지만 여전히 많은 양의 GPU를 소유하고 있습니다. 수출 통제 명령으로 인해 공개 할 수 없습니다.
현재와 미래의 수출 금지로 인해 고급 GPU에 대한 중국의 접근 방식은 점점 어려워 질 것입니다. NVIDIA GPU를 소유하고 사용하면 중국이 글로벌 AI 레이스에서 자신의 입지를 확인하는 데 효과적으로 도움이됩니다.
DeepSeek은 R1 모델에서만 멈추지 않습니다. 또한 강력하고 효과적인 교육 데이터 처리 용량을 통해 DeepSeek-V3 및 DeepSeek-R1과 같은 다른 모델을 개발합니다. DeepSeek은 알고리즘을 우수하게 최적화하는 능력을 입증했으며 시장의 다른 주요 모델과 경쟁 할 수 있습니다.
중국의 인공 지능 실험실은 AI R1 모델이 동등하게 평가 될 때 전 세계적으로 주목을 받고 있으며, Openai의 O1 또는 LLAMA와 같은 미국 최고의 플랫폼을 능가합니다. Scale AI의 CEO 인 Alexandr Wang에 따르면 DeepSeek은 현재이 고급 AI 모델을 훈련시키는 데 사용되는 많은 NVIDIA GPU를 보유하고 있습니다.
Deepseek의 손에 수만 개의 Nvidia GPU가 있습니다
Alexandr Wang은 CNBC와의 인터뷰에서 “인류의 마지막 시험”에 대한 세부 정보를 공유했습니다. AI 테스트는 수학, 물리, 화학 및 생물학과 같은 분야의 전문가들의 질문으로 세계에서 가장 어려운 것으로 간주됩니다. 결과는 DeepSeek R1이 최고의 AI 모델이며 미국 최고의 모델과 비슷하다는 것을 보여줍니다.
Wang은 미국이 인공 지능 분야에서 오랫동안 이끌었지만 중국의 R1의 모습은 상황을 바꾸 었다고 말했다. 그는 또한 Deepseek이 올바른 크리스마스 에이 모델을 시작했다고 지적했다. 그 당시 대부분의 서구 국가는 휴가를 즐기고 있었기 때문이다.
DeepSeek이 뛰어난 성능을 달성하는 데 도움이되는 중요한 요소 중 하나는 많은 양의 NVIDIA GPU에 대한 액세스입니다. Alexandr Wang은 DeepSeek가 현재 약 50,000 개의 NVIDIA H100 GPU를 소유하고 있다고 밝혔습니다. 특히 미국이 2022 년 이후 H100 및 H200과 같은 High -End GPU를 수출하는 금지령을 적용했을 때 놀라운 수치입니다.
NVIDIA는 이전에 수출 규정을 충족하기 위해 H800 및 A800과 같은 대체 버전을 개발했지만 2023 년 까지도이 버전은 금지되어 있습니다. 그러나 DeepSeek은 여전히 대중이 상상하는 금액을 가지고 있지만 미국 수출 통제 명령으로 인해이를 공개 할 수는 없습니다.
Wang은 인상적인 GPU를 보유하고 있음에도 불구하고 중국의 고급 GPU에 대한 접근은 기존 및 향후 수출 금지로 인해 점점 어려워 질 것이라고 말했다. 이것은 중국 AI 실험실의 계산 전력을 확장 할 수있는 능력에 큰 제한을 설정합니다.
그러나 DeepSeek가 달성 한 결과, 미국의 주요 기술 회사와 경쟁하기에 충분한 강력한 상대가되고 있음이 분명합니다. NVIDIA GPU를 효과적으로 소유하고 사용하는 것은 중국이 글로벌 AI 경주에서 자신의 입지를 확인하도록 돕고 있습니다.
현재 DeepSeek은 R1 모델에서만 멈추지 않습니다. 이 시작은 또한 1 월 20 일에 출시 된 DeepSeek-V3 및 가장 최근에 DeepSeek-R1과 같은 다른 모델을 개발합니다. DeepSeek-V3는 1,750 억 개의 매개 변수를 소유하고 있으며 책, 기사 및 Wikipedia와 같은 많은 소스에서 570GB의 텍스트 데이터에 대해 교육을받습니다. 놀라운 것은 DeepSeek-V3가 Chatgpt가 필요로하는 10,000 GPU에 비해 교육 데이터를 처리하기 위해 2,000 NVIDIA GPU 만 필요하다는 것입니다. 이는 특히 미국으로부터의 AI 칩 수출 금지의 맥락에서 Deepsek의 미결제 알고리즘을 최적화하는 능력이 많은 제한을 초래한다는 것을 보여줍니다.
DeepSeek-R1은 “사고 체인”메소드를 적용하여 계속 높아져 모델이 자신의 논리를 반환하고 평가할 수 있습니다. 이 방법은 R1이 더 높은 정확도로 더 복잡한 문제를 해결하는 데 도움이되며 OpenAI의 GPT-4O 또는 Anthropic의 Claude Sonnet 3.5와 같은 최고 모델을 능가합니다.
<
div class = “임신”>
<
H1> 결론은 OpenAI만큼 많지는 않지만, 성능은 동일하며 중국의 깊은 곳은 글로벌 AI 경주에서 그 위치를 주장하고 있습니다. DeepSeek은 수만 개의 Nvidia GPU에 대한 뛰어난 평가 및 소유로 미국의 주요 기술 회사와 강력한 경쟁력을 입증했습니다.