로그인이 필요합니다.
로그인
뉴스/정보 TOP 20
일간
l
주간
l
월간
[컴퓨터]
조텍 그래픽카드 사고 조텍 굿즈 받으세요! 제품 리뷰 이벤트 진행
[컴퓨터]
그래픽카드 만우절 특가! 조텍 RTX 5090 및 RTX 5060 Ti 8GB 한정 수량 특가 진행
[컴퓨터]
RTX 5060 Ti를 RTX 5070으로?! 조텍, 그래픽카드 업그레이드 이벤트 진행
[컴퓨터]
조텍코리아, VIP 멤버십 ‘블랙’ 대상 4월 프리미엄 바디 케어 이벤트 진행
[가전]
클라, 네이버 가전 페스타 참여… ‘인사이 음식물처리기’ 2주간 할인
[컴퓨터]
조텍, 2026도 준비완료! 강력한 RTX 5080 그래픽카드 특가 진행
[게임]
붉은사막, 출시전에 벌써 15% 할인 판매?
[방송]
2025년 전 세계 조회수 1위 유튜버, 김프로
[전자부품]
DJI Lito 1 및 X1 드론 공식 출시 예정
[카메라]
Insta360 Luna 브이로그 카메라 새로운 정보 공개
[게임]
2026년 게임시장 판을 흔들 출시작
[컴퓨터]
10만원에 최신 RTX 5060 그래픽카드를! 조텍 3월 래플 2차 이벤트 진행
[컴퓨터]
조텍, 지포스 RTX 5060 AMP 그래픽카드 수량 한정 특가 진행
[컴퓨터]
대원씨티에스, ASRock 신제품 ‘B550M Pro-A’ 메인보드 출시
[컴퓨터]
조텍 그래픽카드 후기 쓰고 한정판 굿즈 받고! 제품 리뷰 이벤트 진행
[컴퓨터]
마이크로닉스, WIZMAX POWER UP KIT+G30 3PACK 출시
[컴퓨터]
팬서 레이크 기반 코어 울트라 X7 358H 성능, 최대 92% 향상
[레트로]
NES 디자인 Acemagic Retro X5 출시
[모바일]
2025년 상반기, 글로벌 프리미엄 스마트폰 판매 역대 최고
전체
l
기술
l
산업
l
문화/연예
l
생활
l
건강
l
금융/경제
l
사회
l
게임
l
스포츠
l
레트로
l
자동차
엔비디아 CEO 젠슨 황은 자사의 최신 DLSS 5 기술을 비판하는 게이머들의 의견에 대해 공개적으로 입장을 밝혔습니다. 많은 게이머들이 DLSS 5가 의도된 예술적 스타일을 왜곡하여 획일적인 "과장된" 모습으로 만들고, 레지던트 이블 레퀴엠, 스타필드, 호그와트 레거시 와 같은 게임의 캐릭터 얼굴을 "불쾌한 골짜기" 현상으로 변형시킨다고 지적했습니다. 이에 대해 젠슨 황은 주저 없이 게이머들의 생각이 "완전히 틀렸다"고 말했습니다. 엔비디아는 GTC 2026에서 까다로운 청중들 앞에서 DLSS 5를 발표했습니다. 엔비디아가 GTC 2026 행사에서 DLSS 5를 발표한 지 며칠 만에 게이머들은 이 기술이 그래픽 왜곡을 제거하고 시각 효과를 개선하기는커녕, 오히려 번쩍거리는 사실적인 효과로 게임 본연의 예술적 디자인을 크게 왜곡한다고 불만을 제기했습니다. 대부분의 불만은 DLSS 5가 화면을 획일화시킨다는 것이었습니다. 게이머들은 레지던트 이블 레퀴엠 의 레온 케네디와 그레이스 애쉬크로프트의 모습을 보고 엄청난 분노를 터뜨렸습니다 . 캐릭터들이 원작의 아트 디렉션과는 확연히 다르게, 지나치게 이상화된 모습으로 등장했기 때문입니다. 많은 게이머들은 이 모습을 마치 새로운 인스타그램 뷰티 필터나 "AI 쓰레기"에 비유했습니다. DLSS 5에 대한 유저들의 비아냥 황: 게이머들은 DLSS 5에 대해 "완전히 잘못 알고 있다" 하지만 젠슨 황은 GTC 2026에서 톰스 하드웨어와의 기자회견 에 참석해 해당 매체 편집장의 질문에 답하며, DLSS 5에 대한 게이머들의 반발에 대해 먼저 언급했습니다. 그는 "우선, 그들의 생각은 완전히 틀렸습니다."라고 말했습니다. 그는 DLSS 5로의 전환을 뒷받침하는 핵심 이념을 설명하며, "제가 앞서 자세히 설명드렸듯이, DLSS 5는 기하학적 형태와 텍스처, 그리고 게임의 모든 요소를 생성형 AI와 융합하기 때문입니다."라고 말했습니다. 황은 DLSS 5가 프레임 전체에 필터를 적용하는 방식이 아니라, 보다 세밀한 기하학 기반 수준에서 작동하여 기존 렌더링 방식과 AI를 결합하여 더 나은 조명, 텍스처, 디테일 및 에셋을 제공하는 동시에 개발자는 게임의 예술적 방향을 계속해서 제어할 수 있다고 말했습니다. 젠슨 황은 다음과 같이 덧붙였습니다. "이것은 후처리가 아닙니다. 프레임 수준의 후처리가 아니죠. 기하학적 수준에서의 생성 제어입니다. 이 모든 것이 게임 개발자의 직접적인 제어 하에 있습니다. 이는 기존의 생성형 AI와는 매우 다릅니다. 콘텐츠 제어형 생성형 AI인 거죠. 그래서 우리는 이것을 뉴럴 렌더링이라고 부릅니다." 게이머들은 엔비디아의 DLSS 5가 향후 호그와트 레거시, 레지던트 이블 레퀴엠 등과 같은 게임들의 성능을 크게 저하시킬 것을 우려하고 있습니다. 이 게임들은 모두 DLSS 5 업데이트를 받을 예정이기 때문입니다. 엔비디아는 DLSS 5가 레이 트레이싱 이후 회사의 가장 큰 성과이며 성능 저하 없이 극도로 사실적인 비주얼을 구현한다고 주장하지만, 성능과 비주얼에 미치는 영향은 아직 지켜봐야 합니다. DLSS 5는 2026년 가을에 단계적으로 출시될 예정입니다. 결국 DLSS 5에 대한 반발은 개발자들이 비디오 게임에서 이를 어떻게 조정하고 구현하느냐에 따라 사그라들거나 커질 것입니다. 게이머들은 엔비디아의 GPU 공급 부족이 지속되면서 고성능 제품의 가격이 더욱 상승하는 가운데, 전반적으로 증가하는 것으로 인식되는 'AI 오류'에 대한 반발을 계속하고 있습니다 . https://www.tomshardware.com/pc-components/gpus/jensen-huang-says-gamers-are-completely-wrong-about-dlss-5-nvidia-ceo-responds-to-dlss-5-backlash
태나아빠
2026.03.18
0
0
지포스 그래픽카드 전문 기업 조텍코리아(ZOTAC Korea, 대표이사 김성표, www.zotackor.com)는 엔비디아의 최신 기술과 강력한 성능을 제공하는 조텍의 메인스트림급 그래픽카드인 지포스 RTX 5060 Ti 8GB 그래픽카드의 특별 할인을 진행한다. 본 특별 할인 이벤트에서 만나볼 수 있는 조텍의 그래픽카드는 ’ZOTAC GAMING GeForce RTX 5060 Ti Twin Edge OC 8GB’이다. ’ZOTAC GAMING GeForce RTX 5060 Ti Twin Edge OC 8GB’는 2개의 90mm 팬과 고품질 히트 싱크, 360도 패스 스루 설계 등을 통해 빠르게 발열을 잡아 막힘없는 성능을 지원하는 지포스 그래픽카드이다. 특히, ‘ZOTAC GAMING GeForce RTX 5060 Ti Twin Edge OC 8GB’는 약 2슬롯의 가로 22mm의 작은 크기로 거의 모든 케이스에 장착할 수 있는 높은 케이스 호환성을 보여주며, 단일 8핀 커넥터만을 필요로 하여 뛰어난 전력 소모 능력을 보여주기도 한다. 조텍의 그래픽카드 특가는 조텍 공식 쇼핑몰 탁탁몰(www.tagtag.co.kr)과 PC 쇼핑몰과 오픈 마켓 등에서 만나볼수 있으며, 3월 17일부터 수량 소진 시까지 진행된다. 본 특가에서는 ‘ZOTAC GAMING GeForce RTX 5060 Ti Twin Edge OC 8GB’를 599,000원에 만나볼 수 있다. 한편, 조텍코리아에서는 3월 조텍 그래픽카드 구매자 대상으로 구매 후기 이벤트를 진행하고 있다. 국내 정상적으로 유통된 ZOTAC GAMING GeForce RTX 50 시리즈 구매자 누구나 참여가 가능하며, 블로그나 커뮤니티, SNS 등에 사진과 함께 구매 후기를 올린 후 신청서를 작성하면 참여할 수 있다. 자세한 참가 관련 정보는 조텍코리아 홈페이지에서 확인할 수 있다. *ZOTAC GAMING GeForce RTX 5060 Ti Twin Edge OC 8GB 특별 할인 바로가기 탁탁몰 : http://bit.ly/3PpUzNa 컴퓨존: https://bit.ly/4sdZNtV 지마켓 : https://bit.ly/4bNQJ9f 네모PC : https://bit.ly/4sWzwk2 오버시스템 : https://bit.ly/4sdrMtH @zotac
조텍 오피셜
2026.03.18
0
0
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 엔비디아 베라 루빈(Vera Rubin) 플랫폼이 에이전틱 AI의 새로운 지평을 열어가고 있으며, 세계 최대 규모 AI 팩토리 확장을 위해 7종의 신규 칩 양산을 시작했다고 발표했다. 이 플랫폼은 엔비디아 베라 CPU(Vera CPU), 엔비디아 루빈 GPU, 엔비디아 NV링크™ 6 스위치(NVLink™ 6 Switch), 엔비디아 커넥트X®-9 슈퍼NIC(ConnectX®-9 SuperNIC), 엔비디아 블루필드®-4 DPU(BlueField®-4 DPU), 엔비디아 스펙트럼™-6 이더넷 스위치(Spectrum™-6 Ethernet Switch), 그리고 새롭게 통합된 엔비디아 그록 3 LPU(Groq 3 LPU)를 포함한다. 하나의 강력한 AI 슈퍼컴퓨터로 작동하도록 설계된 이 칩들은 대규모 사전·사후 훈련, 테스트 시점 확장부터 실시간 에이전틱 추론까지 AI의 전 단계를 지원한다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “베라 루빈은 세대를 뛰어넘는 도약이다. 7개의 혁신적인 칩, 5개의 랙, 하나의 거대한 슈퍼컴퓨터가 AI의 모든 단계를 지원하기 위해 구축됐다. 이제 에이전틱 AI의 전환점이 도래했으며, 베라 루빈이 역사상 가장 위대한 인프라 구축을 본격화하고 있다”고 말했다. 앤트로픽(Anthropic) CEO 겸 공동 창립자 다리오 아모데이(Dario Amodei)는 “기업과 개발자들은 점점 더 복잡한 추론, 에이전틱 워크플로우, 미션 크리티컬 의사결정을 위해 클로드(Claude)를 활용하고 있다. 이를 위해서는 이러한 변화에 발맞출 수 있는 인프라가 필요하다. 엔비디아 베라 루빈 플랫폼은 서비스를 지속적으로 제공하는 데 필요한 컴퓨팅, 네트워킹, 시스템 설계 역량을 제공하며, 고객의 안전성과 신뢰성을 한층 더 높여준다”고 말했다. 오픈AI(OpenAI) CEO 샘 올트먼(Sam Altman)은 “엔비디아 인프라는 우리가 AI의 지평을 계속 넓혀갈 수 있게 하는 기반이다. 엔비디아 베라 루빈을 통해 더 강력한 모델과 에이전트를 대규모로 구동하고, 수억 명의 사용자에게 더 빠르고 더 안정적인 시스템을 제공할 것”이라고 말했다. POD 규모 시스템으로의 전환 AI 인프라는 개별 칩과 독립형 서버에서 완전 통합형 랙 규모 시스템, POD 규모 배치, AI 팩토리, 소버린 AI(sovereign AI)로 빠르게 진화하고 있다. 이러한 발전은 성능을 획기적으로 끌어올리고, 스타트업, 중견기업, 공공·민관 기관, 대기업에 이르기까지 모든 규모와 산업 분야의 비용 효율성을 개선한다. 동시에 AI 접근성을 에너지 효율을 개선해 세계에서 가장 까다로운 워크로드를 구동하는 데 기여하고 있다. 엔비디아 베라 루빈은 컴퓨팅, 네트워킹, 스토리지 전반에 걸친 긴밀한 공동 설계를 통해, 글로벌 공급망을 갖춘 80개 이상의 엔비디아 MGX 생태계 파트너가 이를 지원한다. 또한 가장 광범위한 엔비디아 POD 규모 플랫폼을 제공하며, 이는 AI 전용으로 설계된 여러 랙이 하나의 거대하고, 일관된 통합 시스템으로 작동하는 슈퍼컴퓨터다. 엔비디아 베라 루빈 NVL72 랙 NV링크 6로 연결된 72개의 루빈 GPU와 36개의 베라 CPU, 커넥트X-9 슈퍼NIC, 블루필드-4 DPU를 통합한 베라 루빈 NVL72는 획기적인 효율성을 제공한다. 엔비디아 블랙웰 플랫폼 대비 4분의 1 수준의 GPU 수로 대규모 전문가 혼합(mixture-of-experts, MoE) 모델을 훈련시키고, 토큰당 비용은 10분의 1 수준으로 유지하며, 와트당 추론 처리량을 최대 10배까지 향상시킨다. 전 세계 하이퍼스케일 AI 팩토리를 위해 설계된 NVL72는 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand)와 스펙트럼-X 이더넷과 원활하게 확장된다. 이를 통해 대규모 GPU 클러스터 전반에서 높은 활용도를 유지하는 동시에 훈련 시간을 줄이고 총소유비용을 절감한다. 엔비디아 베라 CPU 랙 강화학습과 에이전틱 AI 워크로드는 GPU 시스템 모델에서 생성된 결과를 테스트, 검증하기 위해 다수의 CPU 기반 환경에 의존한다. 엔비디아 베라 CPU 랙은 엔비디아 MGX 기반의 고밀도 액체 냉각 인프라를 제공하며, 256개의 베라 CPU를 통합해 확장 가능하고 에너지 효율적인 용량을 제공한다. 이를 통해 세계 최고 수준의 단일 스레드 성능을 통해 대규모 에이전틱 AI를 구현한다. 스펙트럼-X 이더넷 네트워킹과 통합된 베라 CPU 랙은 AI 팩토리 전반에 걸쳐 CPU 환경을 긴밀하게 동기화한다. GPU 컴퓨팅 랙과 함께 대규모 에이전틱 AI와 강화 학습을 위한 CPU 기반을 제공하며, 베라는 기존 CPU 대비 2배 높은 효율성과 50% 더 빠른 속도로 결과를 제공한다. 엔비디아 그록 3 LPX 랙 엔비디아 그록 3 LPX는 가속 컴퓨팅의 새로운 이정표로, 에이전틱 시스템의 저지연과 대규모 컨텍스트 요구사항을 충족하도록 설계됐다. LPX와 베라 루빈의 뛰어난 성능과 결합해 메가와트당 최대 35배 더 높은 추론 처리량을 제공하고, 1조 파라미터 모델 기준 최대 10배 더 높은 수익 기회를 창출한다. 대규모 환경에서 LPU 플릿(fleets)은 빠르고 결정적인 추론을 위한 단일 논리 프로세서로 작동한다. 256개의 LPU 프로세서를 탑재한 LPX 랙은 128GB 온칩 SRAM과 초당 640TB의 확장형 대역폭을 제공한다. 베라 루빈 NVL72에 탑재된 루빈 GPU와 LPU는 AI 모델의 모든 출력 토큰의 각 레이어를 공동으로 연산해, 디코딩을 가속화한다. 1조 파라미터 모델과 100만 토큰 컨텍스트에 최적화된 공동 설계형 LPX 아키텍처는 베라 루빈과 결합해 전력, 메모리, 컴퓨팅 전반의 효율성을 극대화한다. 또한 와트당 처리량과 토큰당 성능을 높여 수조 파라미터, 백만 컨텍스트 기반의 초고성능 추론이라는 새로운 성능 단계를 구현한다. 완전 액체 냉각 방식과 MGX 인프라 기반으로 구축된 LPX는 차세대 베라 루빈 AI 팩토리에 원활하게 통합될 수 있도록 설계됐으며, 올해 하반기 출시될 예정이다. 엔비디아 블루필드-4 STX 스토리지 랙 엔비디아 블루필드-4 STX 랙 규모 시스템은 GPU 메모리를 POD 전반에 원활하게 확장하는 AI 네이티브 스토리지 인프라다. STX는 엔비디아 베라 CPU와 엔비디아 커넥트X-9 슈퍼NIC을 결합한 블루필드-4로 구동된다. 이를 통해 거대 언어 모델(large language model, LLM)과 에이전틱 AI 워크플로우에서 생성되는 대규모 키-값(KV) 캐시 데이터를 저장하고 검색하는 데 최적화된 고대역폭 공유 계층을 제공한다. 엔비디아 도카 메모스™(DOCA Memos™)는 블루필드-4 스토리지를 극대화하는 새로운 도카 프레임워크로, 전용 KV 캐시 스토리지 처리를 통해 추론 처리량을 최대 5배까지 높이고, 일반 스토리지 아키텍처 대비 전력 효율을 크게 향상시킨다. 그 결과, POD 전반에 걸친 컨텍스트를 통해 AI 에이전트와의 더 빠른 멀티턴(multi-turn) 상호작용을 구현하고, AI 서비스의 확장성과 전체 인프라 활용도를 향상시킨다. 미스트랄 AI(Mistral AI) 공동 창립자 겸 CTO 티모테 라크루아(Timothée Lacroix)는 “엔비디아 블루필드-4 STX 랙 규모 컨텍스트 메모리 스토리지 시스템은 우리의 에이전틱 AI 개발을 기하급수적으로 확장하는 데 필요한 핵심적인 성능 향상을 지원할 것이다. STX는 AI 에이전트 메모리를 위해 특별히 설계된 새로운 스토리지 계층을 제공함으로써, 모델이 방대한 데이터셋을 추론할 때에도 일관성과 속도를 유지할 수 있는 이상적인 솔루션”이라고 말했다. 엔비디아 스펙트럼-6 SPX 이더넷 랙 스펙트럼-6 SPX 이더넷은 AI 팩토리 전반의 동서(east-west) 트래픽을 가속하도록 설계됐다. 스펙트럼-X 이더넷 또는 엔비디아 퀀텀-X800 인피니밴드 스위치와 함께 구성할 수 있으며, 대규모 환경에서 저지연·고처리량의 랙 간 연결을 제공한다. 광학 모듈이 통합된 스펙트럼-X 이더넷 포토닉스(Spectrum-X Ethernet Photonics)는 기존 플러그형 트랜시버 대비 최대 5배 높은 광 전력 효율과 10배 높은 복원력을 제공한다. 복원력과 에너지 효율성 향상 엔비디아는 200개 이상의 데이터센터 인프라 파트너와 함께 베라 루빈을 위한 엔비디아 DSX 플랫폼을 발표했다. 여기에는 DSX 맥스-Q(DSX Max-Q)가 포함되며, 이는 AI 팩토리 전체에 동적 전력 프로비저닝(provisioning)을 통해, 전력이 고정된 데이터센터에서 최대 30% 더 많은 AI 인프라 구축을 지원한다. 새로운 DSX 플렉스(DSX Flex) 소프트웨어는 AI 팩토리를 전력망 유연성을 갖춘 에셋으로 전환해, 100기가와트 규모의 유휴 전력을 활용할 수 있다. 또한 엔비디아는 베라 루빈 DSX AI 팩토리 레퍼런스 디자인(Vera Rubin DSX AI Factory reference design) 을 공개했다. 이는 와트당 토큰 수와 전체 처리량을 극대화하고, 시스템 복원력을 높이며, 초기 프로덕션까지 걸리는 시간을 단축하는 공동 설계 AI 인프라의 블루프린트(blueprint)를 제공한다. 이 아키텍처는 컴퓨팅, 네트워킹, 스토리지, 전력, 냉각을 긴밀하게 통합함으로써, 에너지 효율성을 높이고 AI 팩토리가 지속적인 고강도 워크로드 환경에서도 최대 가동 시간을 유지하며 안정적으로 확장될 수 있도록 지원한다. 광범위한 생태계 지원 베라 루빈 기반 제품은 올해 하반기부터 파트너사를 통해 제공될 예정이다. 여기에는 아마존 웹 서비스(Amazon Web Services), 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure) 등 주요 클라우드 제공업체와 함께, 엔비디아 클라우드 파트너(Cloud Partners)인 코어위브(CoreWeave), 크루소(Crusoe), 람다(Lambda), 네비우스(Nebius), 엔스케일(Nscale), 투게더 AI(Together AI)가 포함된다. 글로벌 시스템 제조업체인 시스코(Cisco), 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)는 베라 루빈 기반 제품을 탑재한 다양한 서버를 공급할 것으로 예상된다. 여기에는 에이브레스(Aivres), 에이수스(ASUS), 폭스콘(Foxconn), 기가바이트(GIGABYTE), 인벤텍(Inventec), 페가트론(Pegatron), 퀀타 클라우드 테크놀로지(Quanta Cloud Technology, QCT), 위스트론(Wistron), 위윈(Wiwynn) 등도 포함된다. 앤트로픽, 메타(Meta), 미스트랄 AI, 오픈AI를 포함한 AI 연구소와 최첨단 모델 개발사들은 엔비디아 베라 루빈 플랫폼을 활용해 더 크고 성능이 뛰어난 모델을 훈련시키고, 이전 GPU 세대보다 더 낮은 지연 시간과 비용으로 긴 컨텍스트 멀티모달 시스템을 제공할 계획이다.
대장
2026.03.17
0
0
인피니언 테크놀로지스(코리아 대표이사 이승수)는 엔비디아와의 협력을 확대해 피지컬 AI를 위한 시스템 아키텍처 개발을 가속한다고 밝혔다. 양사는 2025년 8월 발표된 기존 협력을 기반으로, 인피니언의 모터 제어, 마이크로컨트롤러, 전력 시스템 및 보안 기술과 엔비디아의 AI, 로보틱스, 시뮬레이션 플랫폼을 결합해 업계가 휴머노이드 로봇을 설계하고 상용화하는 것을 지원할 것이다. 인피니언은 또한 엔비디아의 Halos AI Systems Inspection Lab에 참여해 견고한 하드웨어 및 소프트웨어 안전 기반 설계를 검토하여, 로봇이 실제 환경에서 안전하고 보안적으로 작동할 수 있도록 할 것이다. 휴머노이드 로봇은 주변을 인지하고, 실시간으로 의사 결정을 내리며, 사람을 위해 설계된 작업 공간에서 안전하게 움직여야 하는 복잡한 시스템이다. 이를 위해서는 센싱, 프로세싱, 구동, 커넥티비티, 에너지 관리 등 반도체 기반 기능의 연결이 필수적이다. 인피니언은 반도체 솔루션을 엔비디아의 시뮬레이션 및 로보틱스 플랫폼에 통합해 센싱, 판단, 안전하고 보안적인 동작의 전 과정을 가속화하여, 휴머노이드 로봇이 실험실 단계에서 대규모 상용 배치로 빠르게 전환될 수 있도록 지원한다. 이번 협력의 핵심 요소는 인피니언 스마트 액추에이터 및 엄선된 센서의 디지털 트윈 활용이다. 이러한 가상 모델은 개방형 로보틱스 학습 및 시뮬레이션 프레임워크인 NVIDIA Isaac Sim 및 NVIDIA Isaac Lab에 적용되어, 개발자들이 하드웨어 제작 및 통합 이전에 현실적인 시뮬레이션 환경에서 로봇 모션 제어와 인지 기능을 테스트하고 조정할 수 있도록 한다. 이를 통해 고객은 개발 초기 단계에서 문제를 발견하고 해결할 수 있어, 물류, 제조, 서비스 로봇 등 휴머노이드 로봇의 시장 출시 시간을 단축하고 통합 리스크를 줄일 수 있다. 인피니언 전력 및 센서 시스템 부문의 아담 화이트(Adam White) 사장은 “지능형 로봇은 주변을 인식하고 판단하고 행동하는 데 필요한 마이크로 일렉트로닉스에 의존하기 때문에, 로보틱스 시장의 빠른 성장은 반도체 시장의 성장을 견인할 것이다. 인피니언의 전력, 모터, 제어, 마이크로컨트롤러, 보안 기술과 엔비디아의 로보틱스 및 디지털 트윈 플랫폼, Halos AI Systems Inspection Lab을 결합함으로써 개발자들이 설계를 더 빠르게 검증하고, 휴머노이드 로봇을 실험실 단계에서 실제 운영 단계로 전환하며, 프로토타입에서 대규모 플릿 배치까지 확장할 수 있도록 지원하고 있다.”라고 말했다. 엔비디아 로보틱스 및 엣지 AI 부문 디푸 탈라(Deepu Talla )부사장은 “차세대 휴머노이드 로봇은 복잡한 실제 환경을 안전하게 탐색하기 위한 피지컬 AI를 요구하며, 최고 수준의 기능 안전과 보안 기준을 충족해야 한다. 인피니언은 엔비디아의 젯슨 토르(Jetson Thor)와 고급 시뮬레이션 기술을 센싱 및 액추에이션 솔루션에 통합함으로써, 개발자들에게 안전한 차세대 자율 로봇의 상용화를 가속할 수 있는 강력한 플랫폼을 제공하고 있다.”라고 말했다. 인피니언, 휴머노이드 로봇의 안전하고 보안적인 센싱, 이동, 동작, 연결 지원 인피니언과 엔비디아는 기존 협력을 기반으로 초저지연, 소형 폼팩터 및 고전력 밀도를 갖춘 휴머노이드 로봇용 공통 시스템 아키텍처를 개발할 것이다. 인피니언은 NVIDIA Jetson Thor 개발 플랫폼과 연동되는 NVIDIA Holoscan Sensor Bridge 기반의 모터 제어 솔루션을 제공하며, AURIX™ 마이크로컨트롤러 및 PSOC™ 디바이스를 활용하고 펌웨어 및 시스템 보호를 위한 PQC(양자내성암호)를 지원할 것이다. 보안은 협력의 핵심이다. NVIDIA Jetson Thor는 소형 컴퓨팅 모듈과 센서, 네트워크, 액추에이터에 전원을 공급하고 인터페이스를 제공하는 캐리어 보드로 구성된다. 인피니언은 AI 모델과 데이터를 보호하고 NVIDIA Jetson 모듈부터 클라우드까지 시스템 전체를 안전하게 유지하기 위해 하드웨어 TPM(Trusted Platform Module) 칩 및 기타 보안 구성 요소를 레퍼런스 디자인으로 제공할 예정이다. 또한 이번 협력은 레벨 4 자율주행 차량 및 로봇 시스템 인증 설계를 지원하는 Halos 안전 프레임워크에 중점을 둘 것이다. 인피니언은 하드웨어 및 소프트웨어 안전 기반을 제공하고, 하드웨어 플랫폼과 운영 체제를 통합하여 전체 스택에 걸쳐 설계 단계부터 엄격한 안전 및 체계적인 사이버 보안을 보장한다. 이를 통해 Jetson 기반 캐리어 보드를 설계하는 기업들은 시큐어 부트, 암호화 통신, 보안적인 OTA 업데이트 등 강화된 보안을 구축할 수 있다. 로보틱스 업계의 신뢰받는 파트너인 인피니언은 엔비디아와 휴머노이드 OEM 등 에코시스템 파트너와 협력하며, 센서, 마이크로컨트롤러, 액추에이터, 이더넷 기반 네트워킹 등 커넥티비티, 메모리, 배터리 관리 시스템까지 휴머노이드 로봇의 핵심 기능 블록에 필요한 광범위한 포트폴리오를 제공한다. Si·SiC·GaN 등 다양한 반도체 기술을 기반으로, 인피니언은 휴머노이드 로봇 1대당 약 500달러 수준의 반도체 부품을 제공할 것으로 추정한다. 인피니언은 로봇이 안전하고 보안적으로 감지, 이동, 동작, 연결할 수 있는 솔루션을 제공하여 로봇 도입 속도를 가속화한다.
대장
2026.03.17
0
0
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 세계 최초의 에이전틱 AI·강화학습 전용 프로세서 엔비디아 베라 CPU(NVIDIA Vera CPU)를 공개했다. 엔비디아 베라 CPU는 기존 랙 스케일 CPU 대비 2배 높은 효율과 50% 빠른 성능을 제공한다. 추론과 에이전틱 AI가 발전을 거듭하면서, 작업 계획 수립과 도구 실행, 데이터 상호작용, 코드 실행, 결과 검증을 수행하는 모델을 지원하는 인프라가 규모와 성능, 비용을 좌우하는 핵심 요소로 부상하고 있다. 엔비디아 베라 CPU는 엔비디아 그레이스 CPU(Grace™ CPU)의 성과를 바탕으로 개발됐으며, 다양한 규모의 조직과 산업 전반에서 에이전틱 AI의 대규모 구현에 필요한 AI 팩토리를 구축할 수 있도록 지원한다. 최상급 단일 스레드 성능과 코어당 대역폭을 갖춘 베라는 새로운 등급의 CPU다. 코딩 어시스턴트와 같은 대규모 AI 서비스는 물론, 소비자와 기업용 에이전트에서 더 높은 AI 처리량과 응답성, 효율성을 제공한다. 베라 도입을 위해 엔비디아와 협력 중인 선도적 하이퍼스케일러에는 알리바바(Alibaba), 코어위브(CoreWeave), 메타(Meta), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI) 등이 있다. 델 테크놀로지스(Dell Technologies), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE), 레노버(Lenovo), 슈퍼마이크로(Supermicro) 등 글로벌 시스템 제조사도 베라 기반 서버를 설계하고 있다. 이처럼 폭넓은 채택을 바탕으로 베라는 개발자와 스타트업, 공공 및 민간 조직 등 다양한 기관이 필요로 하는 AI 워크로드의 새로운 CPU 표준으로 자리 잡아 AI 접근성을 높이고 혁신을 가속할 것으로 기대된다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “베라는 AI의 전환점에 등장했다. 인텔리전스가 에이전틱 형태로 발전해 추론과 행동이 가능해지면서 그 작업을 오케스트레이션(orchestration)하는 시스템의 중요도는 높아지고 있다. 이제 CPU는 단순한 지원 역할을 넘어 모델을 직접 구동하는 단계로 확장되고 있다. 베라는 혁신적인 성능과 에너지 효율을 바탕으로 더욱 빠르게 사고하고 더욱 큰 규모로 확장하는 AI 시스템의 시대를 연다”라고 말했다. 모든 데이터센터 환경에 적합한 구성 엔비디아는 256개 수랭식 베라 CPU로 구성된 새로운 베라 CPU 랙을 발표했다. 이는 독립적으로 실행되는 2만 2,500개 이상의 동시 CPU 환경을 최대 성능으로 지원한다. 이를 통해 AI 팩토리는 단일 랙에서 수만 개의 인스턴스와 에이전틱 도구를 동시에 빠르게 배포, 확장할 수 있다. 베라 랙은 전 세계 80개 생태계 파트너가 지원하는 엔비디아 MGX™ 모듈형 레퍼런스 아키텍처를 기반으로 구축됐다. 엔비디아 베라 루빈 NVL72 플랫폼에 포함된 베라 CPU는 엔비디아 NV링크-C2C(NVLink™-C2C) 인터커넥트 기술을 바탕으로 엔비디아 GPU와 결합될 수 있다. 이 기술은 1.8 TB/s의 일관적인 대역폭을 제공하며, PCIe 젠 6(Gen 6) 대역폭보다 7배 높은 수준으로 CPU와 GPU 사이 고속 데이터 공유가 가능하다. 또한 엔비디아는 베라를 엔비디아 HGX™ 루빈(Rubin) NVL8 시스템의 호스트 CPU로 사용해 GPU 가속 워크로드의 데이터 이동과 시스템 제어를 조율할 수 있는 새로운 레퍼런스 디자인을 발표했다. 베라 시스템 파트너들은 듀얼, 싱글 소켓 CPU 서버 구성을 제공하고 있다. 이는 강화학습과 에이전틱 추론, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, 고성능 컴퓨팅과 같은 워크로드에 최적화돼 있다. 베라 시스템은 모든 구성에서 엔비디아 커넥트X 슈퍼NIC(ConnectX® SuperNIC) 카드를 비롯한 엔비디아 블루필드-4(BlueField®-4) DPU와 통합돼 가속 네트워킹, 스토리지와 보안 기능을 제공하며, 이는 에이전틱 AI의 구현에 중요한 요소다. 이를 통해 특정 워크로드에 맞춰 시스템을 최적화하면서도 엔비디아 플랫폼 전반에서 단일 소프트웨어 스택을 유지할 수 있게 된다. 에이전틱 확장을 위한 설계 고성능, 고효율의 CPU 코어와 고대역폭 메모리 서브시스템, 2세대 엔비디아 스케일러블 코히어런시 패브릭(Scalable Coherency Fabric)을 결합한 베라는 에이전틱 AI와 강화학습 환경과 같이 시스템 활용도가 높은 상황에서도 더욱 신속한 에이전틱 응답을 가능하게 한다. 베라는 엔비디아가 자체 설계한 올림푸스(Olympus) 코어 88개를 탑재해 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전틱 툴링(tooling), 오케스트레이션 서비스에서 높은 성능을 제공한다. 각 코어는 엔비디아 공간적 멀티스레딩(Spatial Multithreading)을 활용해 두 개의 작업을 동시에 실행하면서 일관되고 예측 가능한 성능을 제공한다. 이 같은 특성은 여러 작업을 동시에 실행하는 다중 테넌트(multi-tenant) AI 팩토리에 특히 적합하다. 또한 에너지 효율을 더욱 높이기 위해 베라는 엔비디아 저전력 메모리 서브시스템의 2세대 아키텍처를 도입했다. 이는 LPDDR5X 메모리를 기반으로 하며 최대 1.2TB/s의 대역폭을 제공한다. 일반 범용 CPU와 비교해 대역폭은 두 배, 전력 소비는 절반 수준이다. 폭넓은 생태계 지원 AI 네이티브 소프트웨어 개발 분야의 혁신 기업인 커서(Cursor)는 AI 코딩 에이전트의 성능을 향상시키기 위해 엔비디아 베라를 도입하고 있다. 커서 공동 창립자 겸 CEO 마이클 트루엘(Michael Truell)은 “엔비디아 베라 CPU를 통해 전체 처리량과 효율성을 높여 고객에게 더 빠르고 반응성이 뛰어난 코딩 에이전트 경험을 제공할 수 있게 되기를 기대한다”고 말했다. 데이터 스트리밍, AI 플랫폼 선도 기업 레드판다(Redpanda)는 베라를 활용해 성능을 크게 향상시키고 있다. 레드판다 창립자 겸 CEO 알렉스 갈레고(Alex Gallego)는 “레드판다는 최근 엔비디아 베라에서 아파치 카프카(Apache Kafka) 호환 워크로드를 테스트한 결과 기존에 벤치마킹한 시스템 대비 탁월한 성능 향상을 확인했다. 특히 레이턴시는 5.5배까지 줄었다. 베라는 코어당 더 많은 메모리와 더 낮은 오버헤드를 제공하는 CPU 아키텍처의 새로운 방향을 제시한다. 이를 통해 고객들은 실시간 스트리밍 워크로드를 이전보다 월등히 큰 규모로 확장하고, 새로운 AI와 에이전틱 애플리케이션을 구현할 수 있게 된다”고 말했다. 라이프니츠 슈퍼컴퓨팅 센터(Leibniz Supercomputing Centre)와 로스앨러모스 국립 연구소(Los Alamos National Laboratory), 로렌스 버클리 국립 연구소(Lawrence Berkeley National Laboratory) 산하 국립 에너지 연구 과학 컴퓨팅 센터(National Energy Research Scientific Computing Center), 텍사스 첨단 컴퓨팅 센터(Texas Advanced Computing Center, TACC) 등의 국가 연구 기관 또한 베라 CPU 도입을 계획하고 있다. TACC 고성능 컴퓨팅 디렉터 존 케이즈(John Cazes)는 “TACC는 차세대 호라이즌(Horizon) 시스템에 베라를 도입하기에 앞서 최근 베라 CPU 플랫폼을 테스트했다. 여섯 개의 과학 애플리케이션을 실행한 결과 놀라운 초기 성능이 확인됐다. 베라의 코어당 성능과 메모리 대역폭은 과학 컴퓨팅 분야의 비약적인 도약을 의미한다. TACC는 올해 말 호라이즌 시스템의 CPU 사용자들에게 베라 기반 노드를 제공할 수 있기를 기대한다”라고 말했다. 베라 CPU 도입을 계획 중인 선도적인 클라우드 서비스 제공업체로는 알리바바, 바이트댄스(ByteDance), 클라우드플레어(Cloudflare), 코어위브, 크루소(Crusoe), 람다(Lambda), 네비우스(Nebius), 엔스케일(Nscale), OCI, 투게더.AI(Together.AI), 벌처(Vultr) 등이 있다. 베라 CPU를 도입한 주요 인프라 공급업체로는 에이브레스(Aivres), 애즈락 랙(ASRock Rack), 에이수스(ASUS), 컴팔(Compal), 시스코(Cisco), 델, 폭스콘(Foxconn), 기가바이트(GIGABYTE), HPE, 하이브(Hyve), 인벤텍(Inventec), 레노버, 미텍(MiTAC), MSI, 페가트론(Pegatron), 콴타 클라우드 테크놀로지(Quanta Cloud Technology QCT), 슈퍼마이크로, 위스트론(Wistron), 위윈(Wiwynn) 등이 있다.
대장
2026.03.17
0
0
- 엔비디아 가속 컴퓨팅 플랫폼, 지상에서 우주까지 AI 애플리케이션 지원 엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 새로운 우주 혁신의 시대를 여는 최신 가속 컴퓨팅 플랫폼을 발표했다. 해당 플랫폼은 궤도 데이터센터(orbital data center, ODC), 자리공간 인텔리전스, 자율형 우주 작전에 AI 컴퓨팅 구현을 지원한다. 엔비디아는 크기, 무게 및 전력(SWaP)이 제한된 환경에 데이터센터급 성능을 제공한다. 이를 통해 AI 애플리케이션이 지상에서 우주로, 그리고 우주 간에 원활하게 작동하도록 연결하며, 점점 복잡해지는 미션 프로파일을 수행한다. 엔비디아 스페이스-1 베라 루빈 스페이스 모듈(Space-1 Vera Rubin Module)은 우주를 위한 엔비디아 가속 플랫폼의 최신 구성 요소다. 해당 모듈에 탑재된 루빈 GPU는 엔비디아 H100 GPU 대비 우주 기반 추론에서 최대 25배 향상된 AI 컴퓨팅 성능을 제공한다. 이를 통해 ODC, 고급 지리공간 인텔리전스 처리, 자율 우주 운영을 위한 차세대 컴퓨팅을 가능하게 한다. 엔비디아 IGX 토르™(IGX Thor™), 엔비디아 젯슨 오린™(Jetson Orin™) 플랫폼은 에너지 효율적인 고성능 AI 추론, 이미지 센싱, 가속 데이터 처리를 제공하며, 소형 모듈 형태로 궤도 위의 진정한 엣지 컴퓨팅을 구현한다. 엔비디아 RTX PRO™ 6000 블랙웰 서버 에디션 GPU(RTX PRO™ 6000 Blackwell Server Edition GPU)를 포함한 엔비디아 데이터센터 플랫폼은 지리공간 인텔리전스를 위한 고처리량 온디맨드 지상 처리를 지원하며, 방대한 이미지 아카이브를 분석할 때 기존 CPU 기반 배치 시스템 대비 최대 100배 빠른 성능을 제공한다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 "인류의 최종 개척지인 스페이스 컴퓨팅의 시대가 도래했다. 위성 군집을 배치하고 더 깊은 우주로 탐사를 확대하면서, 인텔리전스는 데이터가 생성되는 곳이라면 어디에나 존재해야 한다. 우주와 지상 시스템 전반에 걸친 AI 처리는 실시간 센싱, 의사결정, 자율성을 가능하게 하며, 궤도 데이터센터를 탐사의 도구로, 우주선을 자율 항법 시스템으로 발전시킨다. 엔비디아는 파트너들과 협력을 통해 지구 너머로 확장하고 있으며, 지금껏 인텔리전스가 도달하지 못했던 영역으로 과감히 나아가고 있다"고 말했다. 우주 미션 지원 업계 선도 기업인 에테르플럭스(Aetherflux), 액시엄 스페이스(Axiom Space), 케플러 커뮤니케이션스(Kepler Communications), 플래닛(Planet), 소피아 스페이스(Sophia Space), 스타클라우드(Starcloud)는 엔비디아 가속 컴퓨팅 플랫폼을 활용해 궤도와 지상 환경에 걸친 차세대 우주 미션을 수행하고 있다. 에테르플럭스 창립자 겸 CEO 바이주 바트(Baiju Bhatt)는 "에테르플럭스는 우주에서의 전력과 컴퓨팅을 위한 새로운 패러다임을 개척하고 있다. 엔비디아 스페이스-1 베라 루빈 모듈은 태양광 에너지를 활용해 궤도의 엣지 환경에서 고성능의 에너지 효율적인 AI를 제공한다. 이를 통해 자율 운영과 미션 크리티컬 서비스를 가능하게 하고, 지구 너머에서 확장 가능한 우주 기반 AI 인프라를 구축할 수 있다"고 말했다. 케플러 커뮤니케이션스 CEO 미나 미트리(Mina Mitry)는 "케플러 커뮤니케이션스는 우주에서 실시간 연결을 가능하게 하는 차세대 데이터 네트워크를 구축하고 있다. 엔비디아 젯슨 오린은 첨단 AI를 위성에 직접 제공해, 위성 군집 전반에서 데이터를 지능적으로 관리하고 라우팅할 수 있도록 지원한다. 이를 통해 네트워크를 더욱 스마트하고 효율적인 플랫폼으로 전환하고, 지연 시간을 줄이며, 글로벌 규모에서 안전하고 신뢰할 수 있는 연결성을 제공한다"고 말했다. 플래닛 공동창립자 겸 CEO 윌 마샬(Will Marshall)은 "플래닛은 매일 지구를 촬영하며, 이는 세계 최고 수준의 컴퓨팅을 요구하는 데이터 처리 과제다. 엔비디아의 가속 플랫폼을 우주에서 지상까지 통합함으로써, 우리는 물리적 세계를 인덱싱하는 역량을 획기적으로 강화하고 있다. 엔비디아 코디프(CorrDiff) AI 모델을 통해 원시 픽셀 데이터를 거의 실시간으로 실행 가능한 인사이트로 전환할 수 있다. 양사의 협력을 통해 행성 인텔리전스의 혁신적인 도약을 이끌고, 인류가 글로벌 변화의 속도에 맞춰 더 현명한 의사결정을 내릴 수 있도록 지원하고 있다"고 말했다. 소피아 스페이스 CEO 롭 드밀로(Rob DeMillo)는 "소피아 스페이스는 고객이 우주에서 애플리케이션을 직접 실행할 수 있는 전용 인프라를 제공하는 모듈형 수동 냉각 호스팅 컴퓨팅 플랫폼을 구축하는 데 집중하고 있다. 엔비디아 젯슨 오린을 통해 해당 인프라에 AI 기능을 내장하고, 엄격한 크기, 무게, 전력 제약 조건에서도 실시간 처리와 자율 운영을 지원한다. 이는 우주에 클라우드와 같은 유연성을 제공하며, 궤도 컴퓨팅을 상업적으로 활용할 수 있게 한다"고 말했다. 스타클라우드 CEO 필립 존스턴(Philip Johnston)은 "스타클라우드는 클라우드와 AI 인프라를 우주에서 직접 제공하기 위한 전용 궤도 데이터센터를 구축하고 있다. 엔비디아와의 협력을 통해 진정한 하이퍼스케일급 AI 컴퓨팅을 궤도 환경에 구현할 수 있게 됐다. 이를 통해 데이터가 생성되는 지점에서 직접 처리하고 다운링크 의존도를 줄이며, 고객이 처음으로 우주에서 훈련과 추론 워크로드를 실행할 수 있게 지원한다. 이는 글로벌 클라우드를 우주로 원활하게 확장하는 데 있어 중요한 단계"라고 말했다. 궤도 위의 AI 기반 인프라 상업 우주 산업이 빠르게 성장하면서 궤도에서의 실시간 데이터 처리에 대한 수요도 증가하고 있다. 엔비디아 스페이스-1 베라 루빈 모듈은 대규모 데이터센터급 AI 성능을 제공하며, 거대 언어 모델(large language model, LLM)과 고급 파운데이션 모델이 우주 환경에서 직접 작동할 수 있도록 지원한다. CPU-GPU 통합 아키텍처와 고대역폭 인터커넥트는 우주 기반 장비에서 발생하는 방대한 데이터 스트림을 실시간으로 처리하는 데 필요한 성능과 메모리를 제공한다. 스페이스-1 베라 루빈 모듈은 이러한 하이퍼스케일 AI 기능을 궤도 플랫폼에 도입함으로써, 궤도 분석, 자율 과학 탐사, 신속한 인사이트 도출을 가능하게 한다. 엔비디아 IGX 토르는 차세대 미션 크리티컬 엣지 환경을 위해 설계된 전력 효율적인 플랫폼에서 산업 등급의 내구성과 엔터프라이즈 소프트웨어 지원을 제공한다. 실시간 AI 처리, 기능 안전, 보안 부팅, 자율 운영 지원을 통해 우주선이 로컬에서 센서 데이터를 처리하고, 대역폭 사용을 최적화하며, 응답성을 향상시키는 동시에 지상 제어 시스템 기능을 원활하게 보완하고 확장한다. 엔비디아 젯슨 오린은 엣지 배포를 위해 설계된 초소형, 고효율 AI 추론 모듈이다. 이는 SWaP 제약 환경에 최적화됐으며, 우주선 내부에서 비전, 항법, 센서 데이터를 직접 실시간 처리해 지연 시간을 줄이고 대역폭을 최적화한다. 엔비디아 젯슨™(Jetson™) 플랫폼의 AI 소프트웨어 생태계와 쿠다®(CUDA®) 가속은 젯슨 오린을 위성, 궤도 서비스 차량, 우주 기반 센싱 플랫폼에 적합한 솔루션으로 만든다. 이를 통해 지상 운영 시스템과의 통합을 유지하면서도, 지능적이고 신속한 컴퓨팅을 요구하는 환경을 구현할 수 있다. 엔비디아 데이터센터 플랫폼, 지리공간 인텔리전스 고도화 우주 생태계가 확장됨에 따라 생성되는 데이터의 양도 증가하고 있다. 궤도 컴퓨팅은 이미지 센서, 레이더, 무선주파수(RF) 센서 등 지리공간 센싱 위성의 실시간 처리 역량을 향상시키지만, 수집된 데이터의 상당수는 지구에 저장된 수백 페타바이트 규모의 역사적 데이터 아카이브와 결합돼 대규모 지리공간 분석에 활용된다. 그동안 지상 기반 지리공간 이미지 처리 시스템은 CPU에서 실행돼 컴퓨팅 처리 시간이 길어지는 문제가 있었다. 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU는 기존 아키텍처 대비 지상 기반 처리 성능을 크게 향상시킨다. 또한 쿠다의 유연성을 활용해, 지리공간 인텔리전스 고객은 클라우드, 엣지 지상국, 궤도 환경 전반에서 처리 방식을 유연하게 조정할 수 있다. 또한 새로운 AI 기능을 신속하게 도입하고, 방대한 이미지 아카이브에서 다음과 같은 용도를 위해 인사이트를 동적으로 추출할 수 있다.
대장
2026.03.17
0
0
- 이벤트
l
- 체험단 모집
l
- 특가 이벤트
l
- 당첨/발표