빌런 TOP 20
일간 l 주간 l 월간
구매후기 이벤트
구글과 엔비디아는 최근 출시된 A5X 인스턴스의 성능을 강화하기 위해 최대 100만 대의 엔비디아 GPU를 사용자에게 제공하기로 협력했습니다. 이번 발표는 추론 비용을 절감하고 토큰 처리량을 향상시키기 위한 양사의 최신 협력의 일환입니다. A5X 시스템은 AI 워크로드를 위한 단일 및 다중 클러스터 컴퓨팅 인프라 구축을 가능하게 하는 엔비디아의 네트워크 가속기를 기반으로 합니다. A5X 인스턴스는 에이전트형 인공지능 워크로드를 실행하도록 특별히 설계된 구글의 최신 제품입니다. 이는 구글의 AI 하이퍼컴퓨터 포트폴리오의 일부로, 이 포트폴리오는 구글의 제미니(Gemini) 플랫폼과 소비자 및 기업용 AI 서비스에도 활용되고 있습니다. 최근 발표에서 구글은 맞춤형 Arm 기반 CPU, 8세대 텐서 프로세서, 네이티브 PyTorch TPU 지원 및 A5X 인스턴스를 탑재한 새로운 가상 머신을 포함하여 하이퍼컴퓨터에 대한 대대적인 업그레이드를 발표했습니다. 이러한 새로운 기능들은 문제나 과제를 단계적으로 해결하는 데 중점을 두는 AI 에이전트 그룹에 의존하는 에이전트형 AI 워크로드를 특별히 겨냥하여 설계되었습니다. A5X 인스턴스는 NVIDIA의 최신 Vera Rubin AI GPU에서 작동하도록 설계된 구글 최초의 인스턴스입니다. 세부 사항에 따르면, A5X는 이더넷 기반 클라우드 인프라에서 AI 워크로드를 가속화하도록 설계된 NVIDIA의 ConnectX-9 NIC를 사용할 예정입니다. 이 NIC는 구글의 버고(Virgo) 플랫폼과 결합되어 사용자가 단일 클러스터에서 최대 80,000개의 루빈 GPU에, 멀티사이트 클러스터에서는 960,000개의 GPU에 접근할 수 있게 해줍니다. 구글의 버고 플랫폼은 단일 데이터 센터 내에서 여러 AI 칩을 연결할 수 있게 해줍니다. NVIDIA의 루빈(Rubin) GPU와 연동되는 것은 물론, 구글의 텐서 처리 장치(TPU)도 지원한다. 버고는 단일 데이터 센터 내에서 최대 134,000개의 TPU를, 여러 사이트에 걸쳐 100만 개 이상의 칩을 연결할 수 있다. NVIDIA에 따르면, A5X 인스턴스는 이전 세대에 비해 토큰당 추론 비용을 10분의 1로 낮추고 메가와트당 처리량을 10배 높일 수 있다. NVIDIA는 또한 Cadence 및 Siemens와 같은 기업의 제품들이 자사의 인프라를 통해 구동되며 Google Cloud에서 이용 가능하다고 언급하며, 물리적 및 산업용 AI에 대해서도 간략히 다루었습니다. 또한 Google의 Gemini 플랫폼은 사이버 보안과 같은 다양한 산업 분야에 에이전트 기반 모델과 워크플로를 배포할 수 있다고 덧붙였습니다. 🔗 원문 링크: https://wccftech.com/nvidias-rubin-lands-inside-googles-virtual-machine-stretching-multi-site-clusters-to-nearly-1-million-gpus/
2026.04.28
0
0
조텍 프래그마타 번들
  • 종합
  • 뉴스/정보
  • 커뮤니티
  • 질문/토론