Villain 커뮤니티
18+
큐냅 블랙프라이데
아마존, 오픈AI와 7년간 380억 달러 규모의 초대형 AI 협력
구라파통신원 쪽지 승인 : 2025-11-04 01:52:33
2
0

아마존, 오픈AI와 7년간 380억 달러 규모 초대형 AI 협력 

NVIDIA GB200·GB300 서버 독점 공급

 

오픈AI(OpenAI) 가 또 한 번 빅테크 거물과 손을 잡았다. 이번에는 아마존(Amazon) 이다. 아마존 웹서비스(AWS)는 오픈AI와 7년간 총 380억 달러(약 52조 원) 규모의 클라우드 인프라 계약을 체결하며, 엔비디아(NVIDIA)의 최신 AI 서버를 오픈AI에 독점 공급하게 된다.

 

Large unbranded warehouse building at sunset with numerous rooftop HVAC units and an empty parking lot.

 

7년간 이어질 380억 달러 규모 협력

 

아마존은 공식 발표를 통해 “AWS가 오픈AI의 주요 연산 파트너 중 하나로 합류했다”고 밝혔다. 이번 계약으로 오픈AI는 AWS 인프라 내에 구축된 엔비디아 GB200 및 차세대 GB300 AI 서버 클러스터를 사용할 수 있게 된다. 계약 기간은 7년, 총액은 380억 달러, 그리고 모든 서버 용량은 2026년 말까지 완전 배치 완료될 예정이다.

 

AWS는 이미 전 세계 최대 규모의 AI 연산 인프라 경험을 보유하고 있다. 현재 50만 개 이상의 칩으로 구성된 대형 클러스터를 안정적으로 운영 중이며, 이번 협력을 통해 오픈AI는 이 방대한 컴퓨팅 자원에 직접 접근할 수 있게 된다. 아마존은 “AWS의 보안성과 확장성, 그리고 오픈AI의 생성형 AI 기술이 결합되면 수백만 명의 사용자가 ChatGPT를 통해 더 많은 가치를 얻을 수 있을 것”이라고 밝혔다.

 

아마존 Trainium은 제외, 엔비디아 기술 중심

 

NVIDIA's "Blackwell Ultra" GB300 AI Servers Expected To Debut By Mid-2025, Featuring "Fully-Liquid" Cooling & Much Higher Performant 1

 

흥미롭게도 계약에는 아마존의 자체 AI 칩 Trainium 관련 내용은 포함되지 않았다. 이는 오픈AI가 AI 모델 훈련 및 추론 모두에서 엔비디아의 기술 스택을 핵심으로 삼고 있다는 점을 보여준다. 특히, 내년 중반 출시 예정인 NVIDIA GB300 “Blackwell Ultra” 서버는 완전 수냉식 쿨링과 고성능 컴퓨팅 기능을 갖춘 차세대 AI 서버로, 오픈AI의 핵심 플랫폼이 될 전망이다.

 

오픈AI는 최근 몇 주 사이에 엔비디아, AMD, 마이크로소프트, 브로드컴, 오라클 등과 잇따라 협력을 발표했다. 아마존 계약까지 더해지며, 회사는 사실상 전 세계 주요 클라우드 및 반도체 인프라를 모두 확보한 셈이다. 업계는 이를 오픈AI의 IPO(기업공개) 준비 단계로 해석하고 있으며, 평가액이 1조 달러(약 1,400조 원) 를 넘어설 가능성도 거론된다.

 

업계 관계자들은 이번 계약을 “AI 생태계의 축이 이동하고 있음을 보여주는 신호”로 평가했다. 아마존 입장에서도 Trainium 대신 엔비디아 기술을 택한 결정은, 오픈AI와의 협력 강화를 위한 전략적 양보로 풀이된다. 오픈AI는 이제 글로벌 클라우드 5대 기업과 모두 협력 관계를 맺었으며, AI 연산 자원의 절대 다수를 장악한 유일한 기업으로 자리 잡았다.  AI 산업의 다음 단계는 이제 기술이 아니라 연산력의 규모로 결정될 것이 분명해졌다.

2
0
By 기사제보 및 정정요청 = master@villain.city
저작권자ⓒ 커뮤니티 빌런 18+ ( Villain ), 무단전재 및 재배포 Ai 학습 포함 금지
관련기사
엔비디아 AI 칩 우주로 발쏴, 우주 궤도에 데이터센터 구축 목적 “엔비디아 AI 칩, 지구 밖으로 간다” 스타트업 ‘스타클라우드’와 협력, 우주 궤도에 데이터센터 구축 ‘태양광 전력’과 ‘진공 냉각’ 활용 엔비디아 AI 칩이 이제 우주로 향한다. AI 스타트업 스타클라우드(Starcloud)가 곧 궤도상 데이터센터를 발사할 계획이며, 엔비디아는 자사의 H100 GPU를 해당 프로젝트에 공급한다고 밝혔다. 지구상의 전력·토지 한계를 넘어선 ‘우주 기반 컴퓨팅 인프라’가 현실화되는 셈이다. “100배 성능, 무한 태양광, 그리고 진공 냉각.” 스타클라우드의 첫 위성, Starcloud-1은 약 60kg 규모의 인공위성형 데이터센터로, 여기에 엔비디아 H100 AI GPU가 탑재된다. 이 장치는 기존 우주 기반 컴퓨팅 장비 대비 최대 100배 높은 연산 성능을 제공할 것으로 알려졌다. 엔비디아는 자사 블로그에서 “이번 프로젝트를 통해 우리는 사실상 무한한 태양 에너지와 자연 냉각원을 확보했다”고 표현했다. “우주는 완벽한 히트싱크(heatsink)다.” 지상 데이터센터의 가장 큰 과제는 전력 소모와 냉각 효율이다. 하지만 궤도 환경에서는 태양광을 통한 지속 전력 공급과 우주 진공을 이용한 복사 냉각이 가능하다. 즉, 냉각수나 배터리, 예비 전력 없이도 시스템을 장시간 안정적으로 구동할 수 있다. 엔비디아는 이 방식을 통해 “지구의 물 자원을 절약하면서, 데이터센터의 지속 가능성을 크게 높일 수 있다”고 설명했다. “AI 시대의 에너지 문제, 해답은 우주에 있을지도 모른다.” 현재 전 세계적으로 초대형 AI 데이터센터 건설이 폭증하고 있다. 마이크로소프트, 구글, 메타 등 빅테크 기업들이 ‘수GW(기가와트)’급 인프라를 빠르게 확장하는 가운데, 전력 수요와 토지 소모 문제가 새로운 산업적 병목으로 떠오르고 있다. 스타클라우드는 이러한 문제를 해결하기 위해 ‘지구 밖 데이터센터’라는 발상을 현실로 옮기려는 첫 시도를 하고 있다. “엔비디아 인셉션(Inception) 프로그램의 성과.” 스타클라우드는 엔비디아의 스타트업 육성 프로그램인 ‘인셉션’*의 일원으로, 기술 자문과 GPU 공급을 지원받고 있다. 스타클라우드 CEO 필립 존스턴(Philip Johnston)은 “10년 안에 대부분의 데이터센터가 지구 밖에서 운영될 것”이라고 전망했다. 그는 “AI 학습 규모가 기하급수적으로 커지는 만큼, 지속 가능하고 냉각 효율이 높은 인프라로의 전환은 불가피하다”고 강조했다. 물론 거대 AI 데이터센터를 우주에 배치하는 데는 여전히 기술적·경제적 장벽이 존재한다. 하지만 엔비디아와 스타클라우드의 협력은, “더 크고 더 빠른 지상 센터”에서 “완전히 다른 차원의 공간”으로 이동하고 있음을 시사한다. “AI의 다음 전장은, 이제 지구 바깥이다.” 출처: WCCFtech / Muhammad Zuhair ** 해외 외신을 읽기 좋게 재구성, 커뮤니티 빌런 18+에만 업데이트 하였습니다.
반도체 구라파통신원 2025-10-23
Comment
큐냅 블랙프라이데이
Today Ranking
  • 종합
  • 뉴스/정보
  • 커뮤니티
  • 질문/토론
커뮤니티 빌런 18+ ( Villain ) Beta 2.0
본사 l 서울 금천구 가산디지털1로 33-33 대륭테크노타운2차 7층 705-5호
대표전화 l 010-4588-4581 | 서비스 시작일 l 2025-08-15
커뮤니티 빌런 18+ ( Villain ) 의 모든 콘텐츠(영상,기사, 사진)는 출처를 표기하는 조건으로 무단 전재와 복사, 배포 등을 허용합니다.
Copyright © 커뮤니티 빌런 18+ ( Villain ) All Rights Reserved.
광고
호스팅 로고