빌런 TOP 20
일간 l 주간 l 월간
인텔 코어 울트라7
지상에선 전력, 우주에선 칩이 병목이라고 주장 AI 인프라 확장이 계속되면 결국 우주 궤도 데이터센터가 필요해질 것이라는 주장이 나왔다. 일론 머스크는 지상에서는 전력이 가장 큰 제약이지만, 우주로 올라간 뒤에는 칩이 새로운 병목이 될 것이라고 말했다. 에너지 제약을 피하기 위해 데이터센터를 우주로 옮기는 구상이 점점 현실적인 선택지가 될 수 있다는 주장이다. 머스크는 드워키시 파텔과의 대화에서 “30개월 전후면 경제적으로 AI를 두기 가장 매력적인 장소가 우주가 될 것”이라고 언급하며, 지상에서는 전력 공급이 먼저 막히고, 우주에서는 칩 공급이 다음 병목이 된다고 정리했다. “36 months, but probably closer to 30 months, the most economically compelling place to put AI will be space. The limiting factor once you can get to space is chips, but the limiting factor before you can get to space is power.” - Elon Musk via Dwarkesh Patel 일론은 현재 지구의 전력 생산과 송배전 구조가 AI 데이터센터 확장을 감당하기에 턱없이 부족하다고 본다. 미국 전체 평균 전력 소비가 약 0.5테라와트 수준인데, 만약 AI 인프라가 1테라와트 규모로 전력을 요구하게 되면 현재 미국 소비의 두 배에 해당하는 전력을 추가로 공급해야 한다는 계산이 나온다. 머스크는 이런 규모의 데이터센터와 발전소를 지상에 계속 늘리는 방식이 현실적으로 어렵다고 주장했다. “All of the United States currently uses only half a terawatt on average. So if you say a terawatt, that would be twice as much electricity as the United States currently consumes. So that’s quite a lot. Can you imagine building that many data centers? That many power plants?” 여기에 국제에너지기구(IEA) 전망도 함께 거론된다. 향후 4년 내 데이터센터 전력 소비가 15%까지 늘 수 있고, 2030년에는 데이터센터가 미국 전체 전력 생산의 12%를 차지할 수 있다는 관측이다. 이런 흐름이 계속된다면 전력망이 가장 먼저 한계에 부딪힐 수 있다는 분석과 맞물린다. 논리는 여기서 한 단계 더 나간다. 스타십이 우주 운송과 배치를 담당하고, 스타링크가 네트워크를 담당해 궤도 데이터센터 구축이 가능해지는 순간, 전력 문제는 우주에서 태양 에너지를 활용하는 방식으로 상당 부분 해결될 수 있지만, 그 다음 병목은 결국 칩이라고 본다. 그는 테슬라가 이미 TSMC(대만·애리조나), 삼성(한국·텍사스) 등 거의 모든 파운드리와 협력하고 있다고 말하면서도, 이들이 제공할 수 있는 생산 용량과 납기 속도가 AI 확장 속도를 따라가지 못한다고 주장했다. 이런 이유로 테슬라가 ‘테라팹’ 같은 자체 생산 네트워크를 고민하게 됐다는 흐름으로 이어진다. 우주 데이터센터 구상은 전혀 새로운 개념은 아니다. 일부 기업과 기관은 이미 “우주 데이터센터”라는 개념을 실험적으로 언급해 왔고, 스타트업 스타클라우드는 엔비디아 H100을 지구 밖에서 운용한 사례가 알려져 있다. 다만 머스크가 말하는 것은 실험 수준이 아니라, 기가와트 단위의 대규모 인프라를 궤도에 올리는 수준이다. 이 단계에 들어가면 기술적 가능성과 경제성 모두에서 논쟁이 더 커질 수밖에 없다. 정리하면 머스크는 AI 확장의 종착점이 “전력 문제를 피할 수 있는 우주”가 될 수 있다고 보고 있으며, 그 과정에서 지상의 병목은 전력, 우주의 병목은 칩으로 바뀐다는 구도를 제시했다. 다만 구상이 실제로 언제, 어떤 방식으로 현실화될지는 여전히 변수와 논쟁이 많다. https://www.weeklypost.kr/news/articleView.html?idxno=10499
2026.02.06
2
3
“엔비디아 AI 칩, 지구 밖으로 간다” 스타트업 ‘스타클라우드’와 협력, 우주 궤도에 데이터센터 구축 ‘태양광 전력’과 ‘진공 냉각’ 활용 엔비디아 AI 칩이 이제 우주로 향한다. AI 스타트업 스타클라우드(Starcloud)가 곧 궤도상 데이터센터를 발사할 계획이며, 엔비디아는 자사의 H100 GPU를 해당 프로젝트에 공급한다고 밝혔다. 지구상의 전력·토지 한계를 넘어선 ‘우주 기반 컴퓨팅 인프라’가 현실화되는 셈이다. “100배 성능, 무한 태양광, 그리고 진공 냉각.” 스타클라우드의 첫 위성, Starcloud-1은 약 60kg 규모의 인공위성형 데이터센터로, 여기에 엔비디아 H100 AI GPU가 탑재된다. 이 장치는 기존 우주 기반 컴퓨팅 장비 대비 최대 100배 높은 연산 성능을 제공할 것으로 알려졌다. 엔비디아는 자사 블로그에서 “이번 프로젝트를 통해 우리는 사실상 무한한 태양 에너지와 자연 냉각원을 확보했다”고 표현했다. “우주는 완벽한 히트싱크(heatsink)다.” 지상 데이터센터의 가장 큰 과제는 전력 소모와 냉각 효율이다. 하지만 궤도 환경에서는 태양광을 통한 지속 전력 공급과 우주 진공을 이용한 복사 냉각이 가능하다. 즉, 냉각수나 배터리, 예비 전력 없이도 시스템을 장시간 안정적으로 구동할 수 있다. 엔비디아는 이 방식을 통해 “지구의 물 자원을 절약하면서, 데이터센터의 지속 가능성을 크게 높일 수 있다”고 설명했다. “AI 시대의 에너지 문제, 해답은 우주에 있을지도 모른다.” 현재 전 세계적으로 초대형 AI 데이터센터 건설이 폭증하고 있다. 마이크로소프트, 구글, 메타 등 빅테크 기업들이 ‘수GW(기가와트)’급 인프라를 빠르게 확장하는 가운데, 전력 수요와 토지 소모 문제가 새로운 산업적 병목으로 떠오르고 있다. 스타클라우드는 이러한 문제를 해결하기 위해 ‘지구 밖 데이터센터’라는 발상을 현실로 옮기려는 첫 시도를 하고 있다. “엔비디아 인셉션(Inception) 프로그램의 성과.” 스타클라우드는 엔비디아의 스타트업 육성 프로그램인 ‘인셉션’*의 일원으로, 기술 자문과 GPU 공급을 지원받고 있다. 스타클라우드 CEO 필립 존스턴(Philip Johnston)은 “10년 안에 대부분의 데이터센터가 지구 밖에서 운영될 것”이라고 전망했다. 그는 “AI 학습 규모가 기하급수적으로 커지는 만큼, 지속 가능하고 냉각 효율이 높은 인프라로의 전환은 불가피하다”고 강조했다. 물론 거대 AI 데이터센터를 우주에 배치하는 데는 여전히 기술적·경제적 장벽이 존재한다. 하지만 엔비디아와 스타클라우드의 협력은, “더 크고 더 빠른 지상 센터”에서 “완전히 다른 차원의 공간”으로 이동하고 있음을 시사한다. “AI의 다음 전장은, 이제 지구 바깥이다.” 출처: WCCFtech / Muhammad Zuhair ** 해외 외신을 읽기 좋게 재구성, 커뮤니티 빌런 18+에만 업데이트 하였습니다.
2025.10.23
2
2
AI 미니PC 이벤트I 미니PC 이벤트
  • 종합
  • 뉴스/정보
  • 커뮤니티
  • 질문/토론