로그인이 필요합니다.
로그인
[인공지능]
오픈AI, 가장 지능적인 AI 모델 GPT-5.5 공개… 토큰 비용 1/35 수준으로 절감, 메가와트당 성능 50배 향상
[인공지능]
SpaceX, GPU 자체 생산 계획 밝혀—1조 7,500억 달러 IPO 문서에 포함
[인공지능]
Groq의 추론 칩, 비용은 NVIDIA Blackwell 대비 5분의 1 수준—속도는 2배
[인공지능]
퀀텀에이아이 ‘AI 메모리 장벽’ 넘다. 차세대 초압축 기술 ‘퀀텀퀀트’ 공개
[인공지능]
구글, AI 프로 요금제 59% 할인
[인공지능]
엔비디아, 에이전틱 AI 전용 프로세서 ‘베라 CPU’ 공개
[인공지능]
엔비디아, AI로 게임 그래픽 혁신하는 ‘DLSS 5’ 공개
[인공지능]
엔비디아, 베라 루빈 공개… 에이전틱 AI 시대 개막
[인공지능]
인피니언, 엔비디아와 협력해 차세대 휴머노이드 로봇 개발 가속화
[인공지능]
아마존, AI 비서 알렉사+의 웹 서비스 출시
[인공지능]
네이버, 연관검색어 서비스 이달 종료
[인공지능]
신세계, 챗GPT로 이마트에서 AI쇼핑
[인공지능]
AI로 인해 IT·전문직 ‘2030’ 취업자 13만명 감소
[인공지능]
무인공장, K-다그팩토리 시대 본격화
[인공지능]
오픈AI, 가장 지능적인 AI 모델 GPT-5.5 공개… 토큰 비용 1/35 수준으로 절감, 메가와트당 성능 50배 향상
[인공지능]
SpaceX, GPU 자체 생산 계획 밝혀—1조 7,500억 달러 IPO 문서에 포함
[인공지능]
Groq의 추론 칩, 비용은 NVIDIA Blackwell 대비 5분의 1 수준—속도는 2배
[인공지능]
퀀텀에이아이 ‘AI 메모리 장벽’ 넘다. 차세대 초압축 기술 ‘퀀텀퀀트’ 공개
[인공지능]
구글, AI 프로 요금제 59% 할인
[인공지능]
무인공장, K-다그팩토리 시대 본격화
[인공지능]
엔비디아, AI로 게임 그래픽 혁신하는 ‘DLSS 5’ 공개
[인공지능]
엔비디아, 에이전틱 AI 전용 프로세서 ‘베라 CPU’ 공개
[인공지능]
신세계, 챗GPT로 이마트에서 AI쇼핑
[인공지능]
아마존, AI 비서 알렉사+의 웹 서비스 출시
[인공지능]
ASUS, 소비자 PC 시장 불황 대안으로 AI 서버 산업 올인
[인공지능]
엔비디아, 베라 루빈 공개… 에이전틱 AI 시대 개막
[인공지능]
네이버, 연관검색어 서비스 이달 종료
[인공지능]
인피니언, 엔비디아와 협력해 차세대 휴머노이드 로봇 개발 가속화
[인공지능]
AI 영상 광고·숏폼 공모전 대상
[인공지능]
오픈AI, 가장 지능적인 AI 모델 GPT-5.5 공개… 토큰 비용 1/35 수준으로 절감, 메가와트당 성능 50배 향상
[인공지능]
SpaceX, GPU 자체 생산 계획 밝혀—1조 7,500억 달러 IPO 문서에 포함
[인공지능]
Groq의 추론 칩, 비용은 NVIDIA Blackwell 대비 5분의 1 수준—속도는 2배
[인공지능]
퀀텀에이아이 ‘AI 메모리 장벽’ 넘다. 차세대 초압축 기술 ‘퀀텀퀀트’ 공개
[인공지능]
구글, AI 프로 요금제 59% 할인
[인공지능]
네이버, 연관검색어 서비스 이달 종료
[인공지능]
무인공장, K-다그팩토리 시대 본격화
[인공지능]
엔비디아, AI로 게임 그래픽 혁신하는 ‘DLSS 5’ 공개
[인공지능]
AI 영상 광고·숏폼 공모전 대상
[인공지능]
신세계, 챗GPT로 이마트에서 AI쇼핑
[인공지능]
엔비디아, 에이전틱 AI 전용 프로세서 ‘베라 CPU’ 공개
[인공지능]
아마존, AI 비서 알렉사+의 웹 서비스 출시
전체
l
기술
l
산업
l
문화/연예
l
생활
l
건강
l
금융/경제
l
사회
l
게임
l
스포츠
l
레트로
l
자동차
l
성인
OpenAI는 오늘(4월 24일) 최신 AI 모델 GPT-5.5를 공개했다. 이는 현재까지 가장 지능적이고 직관적인 모델로, 에이전트 기반 코딩(Agentic Coding), 컴퓨터 활용, 과학 연구 분야에서 뛰어난 성능을 보인다. 이전 모델인 GPT-5.4와 비교해 동일한 작업을 수행할 때 필요한 토큰(Token) 사용량도 줄어든 것이 특징이다. OpenAI의 사장 Greg Brockman은 GPT-5.5의 핵심 혁신으로 “더 적은 지시로 더 많은 작업을 수행할 수 있는 능력”을 강조했다. 특히 모호한 문제를 처리할 때 높은 자율성을 발휘하며, 사용자 의도를 빠르게 이해하고 복잡한 다단계 작업을 스스로 계획하고 실행할 수 있다는 점이 주요 강점이다. 코드 작성 및 디버깅, 온라인 리서치, 데이터 분석, 다양한 도구 간 연동 작업에서 특히 뛰어난 성과를 보인다. GPT-5.5의 가장 큰 특징은 ‘에이전트(Agent) 능력’이다. 사용자가 세부 단계를 일일이 지정할 필요 없이, 다소 추상적인 복합 작업만 제시하면 모델이 스스로 계획을 세우고, 도구를 호출하며, 결과를 검증하고, 완료될 때까지 작업을 지속적으로 수행한다. 성능 측면에서도 GPT-5.5는 지능과 속도의 균형을 한층 강화했다. 모델 규모와 성능이 향상되었음에도 불구하고 실제 서비스 환경에서 토큰당 지연 시간은 GPT-5.4와 동일한 수준을 유지했으며, 동일 작업 수행 시 필요한 토큰 수는 크게 감소했다. Artificial Analysis의 Coding Index에서는 경쟁 모델 대비 절반 비용으로 최첨단(SOTA) 수준의 성능을 달성했다. Terminal-Bench 2.0 테스트에서는 82.7%의 정확도를 기록했다. GitHub 문제 해결을 평가하는 SWE-Bench Pro에서는 58.6%를 달성했으며, Expert-SWE 등 장기 과제에서도 이전 모델을 능가했다. 기업 활용 사례에서도 성과가 두드러진다. OpenAI 내부에서는 85% 이상의 직원이 매주 Codex를 사용하고 있으며, 재무팀은 이를 활용해 7만 페이지 이상의 세무 문서를 검토하며 업무 효율을 크게 향상시켰다. NVIDIA등 파트너 기업 역시 디버깅 시간을 수일에서 수시간으로 단축했다고 밝혔다. 현재 GPT-5.5는 Plus 및 Pro 사용자에게 제공되고 있으며, API 버전도 곧 출시될 예정이다. 가격은 입력 기준으로 100만 토큰당 5달러, Pro 버전은 30달러로 책정됐다.
따노스
2026.04.24
1
1
SpaceX가 비공개로 제출한 1조 7,500억 달러 규모의 S-1 신고서 유출 내용에 따르면, 자사 GPU를 직접 생산할 계획이 포함된 것으로 나타났습니다. 해당 문서는 장기적인 반도체 공급 계약이 부족한 상황에서, 필요한 프로세서 일부를 자체적으로 생산하기 위해 수십억 달러를 투자할 의도를 밝히고 있습니다. 특히 Reuters에 따르면, 사내에서 생산할 반도체는 AI 가속용 ASIC이 아니라 GPU로 언급된 점이 주목됩니다. 다만 명칭에 대해서는 여전히 해석의 여지가 있습니다. 이번 소식은 머스크가 새로운 TeraFab 반도체 제조 프로젝트에서 Intel의 14A 공정을 활용하고, SpaceX가 생산 시설을 운영할 것이라고 발표한 직후 전해졌습니다. Reuters가 확인한 S-1 문서에는 향후 대규모 자본 지출의 이유 중 하나로 ‘자체 GPU 생산(manufacturing our own GPUs)’이 명시되어 있습니다. 이는 SpaceX가 주요 칩 공급업체들과 장기 계약을 충분히 확보하지 못한 상황과도 관련이 있는 것으로 보입니다. 일론 머스크는 전날, Tesla에서 개발한 반도체를 생산하기 위해 SpaceX가 대규모 반도체 제조 시설을 건설 및 운영할 것이라고 확인했지만, ‘자체 GPU’ 개발 계획은 이번에 새롭게 드러난 내용입니다. Reuters는 기업마다 AI 가속기를 부르는 명칭이 다르다는 점도 지적합니다. AMD와 NVIDIA는 이를 ‘GPU’라고 부르는 반면, Google은 ‘TPU’, Microsoft는 ‘가속기(Accelerator)’, SambaNova는 ‘RDU’라는 용어를 사용합니다. 대부분의 하이퍼스케일 클라우드 기업과 하드웨어 업체들은 이러한 칩을 ASIC(특정 용도 집적회로)으로 분류합니다. SpaceX가 Tesla의 AI 칩과 별도로 ASIC을 명시하지 않은 점을 고려할 때, Reuters는 SpaceX가 ‘자체 GPU’라는 이름으로 기존 Tesla AI 프로세서와는 다른 개념의 칩을 설계 및 생산하려는 것으로 보고 있습니다.
따노스
2026.04.24
0
1
AI 컴퓨팅 용량이 지속적으로 증가하는 가운데, 컴퓨팅 인프라 제공업체 Nebius의 한 전문가는 AlphaSense와의 인터뷰에서 업계 현황을 설명했습니다. 성능 측면에서는 여전히 NVIDIA의 최첨단 AI GPU가 업계를 선도하고 있지만, 비용 기준이 변화하면서 대안 솔루션의 인기가 점점 높아지고 있다는 분석입니다. 또한 AI 컴퓨팅 수요는 여전히 매우 높아, 서비스 제공업체들은 100%에 가까운 가동률을 유지하며 비용을 낮추고 투자 수익을 극대화할 수 있는 상황입니다. 해당 전문가는 현재 AI 인프라 가격이 사용되는 GPU 종류와 사전 예약 여부에 따라 달라진다고 설명했습니다. 온디맨드 기준으로 NVIDIA H100은 시간당 2.95달러, H200은 3.50달러, 최신 Blackwell B200은 시간당 4.90달러에서 6.50달러 사이입니다. 한편, 사전 예약 시 가격은 낮아집니다. 최소 10,000개의 GPU를 1~2년 계약으로 예약할 경우, H100은 1.50달러, H200은 2.20달러, B200은 최소 3.50달러 수준입니다. 2025년 말, NVIDIA는 칩 스타트업 Groq과 비독점 라이선스 계약을 체결했다고 발표했습니다. 이는 당시 NVIDIA의 최대 규모 계약으로, Groq의 AI 추론 기술이 포함되었습니다. Nebius 전문가는 현재 기업 워크로드 수요의 90~95%가 추론에서 발생한다고 설명합니다. 이는 기업들이 자체 소프트웨어를 개발하기보다 사전 학습된 모델이나 API를 활용하는 경향이 강해졌기 때문입니다. AI 인프라 시장에서는 학습에서 추론으로의 전환뿐만 아니라, 비용 구조의 변화도 동시에 진행되고 있습니다. 이와 함께 NVIDIA GPU의 대안 칩에 대한 수요 역시 증가하고 있습니다. 백만 토큰당 비용 비교: NVIDIA Blackwell vs. Groq 새로운 비용 구조에서는 사용량을 토큰 단위, 또는 백만 토큰 기준으로 과금하는 방식이 확산되고 있습니다. 이에 따르면 Groq의 칩은 백만 토큰당 0.05~0.10달러 수준으로 매우 경제적인 반면, NVIDIA의 B100, B200, B300은 약 0.25달러로 약 5배 높은 비용입니다. 또한 Groq 칩은 비용뿐 아니라 속도에서도 경쟁력을 보이며, 초당 최대 800토큰을 처리할 수 있어 NVIDIA 칩의 약 450토큰 대비 거의 두 배에 달합니다. 출처 : https://wccftech.com/nvidias-ai-chips-see-alternatives-emerge-amidst-pricing-model-shift-to-cost-per-million-tokens/
따노스
2026.04.24
1
1
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 엔비디아 베라 루빈(Vera Rubin) 플랫폼이 에이전틱 AI의 새로운 지평을 열어가고 있으며, 세계 최대 규모 AI 팩토리 확장을 위해 7종의 신규 칩 양산을 시작했다고 발표했다. 이 플랫폼은 엔비디아 베라 CPU(Vera CPU), 엔비디아 루빈 GPU, 엔비디아 NV링크™ 6 스위치(NVLink™ 6 Switch), 엔비디아 커넥트X®-9 슈퍼NIC(ConnectX®-9 SuperNIC), 엔비디아 블루필드®-4 DPU(BlueField®-4 DPU), 엔비디아 스펙트럼™-6 이더넷 스위치(Spectrum™-6 Ethernet Switch), 그리고 새롭게 통합된 엔비디아 그록 3 LPU(Groq 3 LPU)를 포함한다. 하나의 강력한 AI 슈퍼컴퓨터로 작동하도록 설계된 이 칩들은 대규모 사전·사후 훈련, 테스트 시점 확장부터 실시간 에이전틱 추론까지 AI의 전 단계를 지원한다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “베라 루빈은 세대를 뛰어넘는 도약이다. 7개의 혁신적인 칩, 5개의 랙, 하나의 거대한 슈퍼컴퓨터가 AI의 모든 단계를 지원하기 위해 구축됐다. 이제 에이전틱 AI의 전환점이 도래했으며, 베라 루빈이 역사상 가장 위대한 인프라 구축을 본격화하고 있다”고 말했다. 앤트로픽(Anthropic) CEO 겸 공동 창립자 다리오 아모데이(Dario Amodei)는 “기업과 개발자들은 점점 더 복잡한 추론, 에이전틱 워크플로우, 미션 크리티컬 의사결정을 위해 클로드(Claude)를 활용하고 있다. 이를 위해서는 이러한 변화에 발맞출 수 있는 인프라가 필요하다. 엔비디아 베라 루빈 플랫폼은 서비스를 지속적으로 제공하는 데 필요한 컴퓨팅, 네트워킹, 시스템 설계 역량을 제공하며, 고객의 안전성과 신뢰성을 한층 더 높여준다”고 말했다. 오픈AI(OpenAI) CEO 샘 올트먼(Sam Altman)은 “엔비디아 인프라는 우리가 AI의 지평을 계속 넓혀갈 수 있게 하는 기반이다. 엔비디아 베라 루빈을 통해 더 강력한 모델과 에이전트를 대규모로 구동하고, 수억 명의 사용자에게 더 빠르고 더 안정적인 시스템을 제공할 것”이라고 말했다. POD 규모 시스템으로의 전환 AI 인프라는 개별 칩과 독립형 서버에서 완전 통합형 랙 규모 시스템, POD 규모 배치, AI 팩토리, 소버린 AI(sovereign AI)로 빠르게 진화하고 있다. 이러한 발전은 성능을 획기적으로 끌어올리고, 스타트업, 중견기업, 공공·민관 기관, 대기업에 이르기까지 모든 규모와 산업 분야의 비용 효율성을 개선한다. 동시에 AI 접근성을 에너지 효율을 개선해 세계에서 가장 까다로운 워크로드를 구동하는 데 기여하고 있다. 엔비디아 베라 루빈은 컴퓨팅, 네트워킹, 스토리지 전반에 걸친 긴밀한 공동 설계를 통해, 글로벌 공급망을 갖춘 80개 이상의 엔비디아 MGX 생태계 파트너가 이를 지원한다. 또한 가장 광범위한 엔비디아 POD 규모 플랫폼을 제공하며, 이는 AI 전용으로 설계된 여러 랙이 하나의 거대하고, 일관된 통합 시스템으로 작동하는 슈퍼컴퓨터다. 엔비디아 베라 루빈 NVL72 랙 NV링크 6로 연결된 72개의 루빈 GPU와 36개의 베라 CPU, 커넥트X-9 슈퍼NIC, 블루필드-4 DPU를 통합한 베라 루빈 NVL72는 획기적인 효율성을 제공한다. 엔비디아 블랙웰 플랫폼 대비 4분의 1 수준의 GPU 수로 대규모 전문가 혼합(mixture-of-experts, MoE) 모델을 훈련시키고, 토큰당 비용은 10분의 1 수준으로 유지하며, 와트당 추론 처리량을 최대 10배까지 향상시킨다. 전 세계 하이퍼스케일 AI 팩토리를 위해 설계된 NVL72는 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand)와 스펙트럼-X 이더넷과 원활하게 확장된다. 이를 통해 대규모 GPU 클러스터 전반에서 높은 활용도를 유지하는 동시에 훈련 시간을 줄이고 총소유비용을 절감한다. 엔비디아 베라 CPU 랙 강화학습과 에이전틱 AI 워크로드는 GPU 시스템 모델에서 생성된 결과를 테스트, 검증하기 위해 다수의 CPU 기반 환경에 의존한다. 엔비디아 베라 CPU 랙은 엔비디아 MGX 기반의 고밀도 액체 냉각 인프라를 제공하며, 256개의 베라 CPU를 통합해 확장 가능하고 에너지 효율적인 용량을 제공한다. 이를 통해 세계 최고 수준의 단일 스레드 성능을 통해 대규모 에이전틱 AI를 구현한다. 스펙트럼-X 이더넷 네트워킹과 통합된 베라 CPU 랙은 AI 팩토리 전반에 걸쳐 CPU 환경을 긴밀하게 동기화한다. GPU 컴퓨팅 랙과 함께 대규모 에이전틱 AI와 강화 학습을 위한 CPU 기반을 제공하며, 베라는 기존 CPU 대비 2배 높은 효율성과 50% 더 빠른 속도로 결과를 제공한다. 엔비디아 그록 3 LPX 랙 엔비디아 그록 3 LPX는 가속 컴퓨팅의 새로운 이정표로, 에이전틱 시스템의 저지연과 대규모 컨텍스트 요구사항을 충족하도록 설계됐다. LPX와 베라 루빈의 뛰어난 성능과 결합해 메가와트당 최대 35배 더 높은 추론 처리량을 제공하고, 1조 파라미터 모델 기준 최대 10배 더 높은 수익 기회를 창출한다. 대규모 환경에서 LPU 플릿(fleets)은 빠르고 결정적인 추론을 위한 단일 논리 프로세서로 작동한다. 256개의 LPU 프로세서를 탑재한 LPX 랙은 128GB 온칩 SRAM과 초당 640TB의 확장형 대역폭을 제공한다. 베라 루빈 NVL72에 탑재된 루빈 GPU와 LPU는 AI 모델의 모든 출력 토큰의 각 레이어를 공동으로 연산해, 디코딩을 가속화한다. 1조 파라미터 모델과 100만 토큰 컨텍스트에 최적화된 공동 설계형 LPX 아키텍처는 베라 루빈과 결합해 전력, 메모리, 컴퓨팅 전반의 효율성을 극대화한다. 또한 와트당 처리량과 토큰당 성능을 높여 수조 파라미터, 백만 컨텍스트 기반의 초고성능 추론이라는 새로운 성능 단계를 구현한다. 완전 액체 냉각 방식과 MGX 인프라 기반으로 구축된 LPX는 차세대 베라 루빈 AI 팩토리에 원활하게 통합될 수 있도록 설계됐으며, 올해 하반기 출시될 예정이다. 엔비디아 블루필드-4 STX 스토리지 랙 엔비디아 블루필드-4 STX 랙 규모 시스템은 GPU 메모리를 POD 전반에 원활하게 확장하는 AI 네이티브 스토리지 인프라다. STX는 엔비디아 베라 CPU와 엔비디아 커넥트X-9 슈퍼NIC을 결합한 블루필드-4로 구동된다. 이를 통해 거대 언어 모델(large language model, LLM)과 에이전틱 AI 워크플로우에서 생성되는 대규모 키-값(KV) 캐시 데이터를 저장하고 검색하는 데 최적화된 고대역폭 공유 계층을 제공한다. 엔비디아 도카 메모스™(DOCA Memos™)는 블루필드-4 스토리지를 극대화하는 새로운 도카 프레임워크로, 전용 KV 캐시 스토리지 처리를 통해 추론 처리량을 최대 5배까지 높이고, 일반 스토리지 아키텍처 대비 전력 효율을 크게 향상시킨다. 그 결과, POD 전반에 걸친 컨텍스트를 통해 AI 에이전트와의 더 빠른 멀티턴(multi-turn) 상호작용을 구현하고, AI 서비스의 확장성과 전체 인프라 활용도를 향상시킨다. 미스트랄 AI(Mistral AI) 공동 창립자 겸 CTO 티모테 라크루아(Timothée Lacroix)는 “엔비디아 블루필드-4 STX 랙 규모 컨텍스트 메모리 스토리지 시스템은 우리의 에이전틱 AI 개발을 기하급수적으로 확장하는 데 필요한 핵심적인 성능 향상을 지원할 것이다. STX는 AI 에이전트 메모리를 위해 특별히 설계된 새로운 스토리지 계층을 제공함으로써, 모델이 방대한 데이터셋을 추론할 때에도 일관성과 속도를 유지할 수 있는 이상적인 솔루션”이라고 말했다. 엔비디아 스펙트럼-6 SPX 이더넷 랙 스펙트럼-6 SPX 이더넷은 AI 팩토리 전반의 동서(east-west) 트래픽을 가속하도록 설계됐다. 스펙트럼-X 이더넷 또는 엔비디아 퀀텀-X800 인피니밴드 스위치와 함께 구성할 수 있으며, 대규모 환경에서 저지연·고처리량의 랙 간 연결을 제공한다. 광학 모듈이 통합된 스펙트럼-X 이더넷 포토닉스(Spectrum-X Ethernet Photonics)는 기존 플러그형 트랜시버 대비 최대 5배 높은 광 전력 효율과 10배 높은 복원력을 제공한다. 복원력과 에너지 효율성 향상 엔비디아는 200개 이상의 데이터센터 인프라 파트너와 함께 베라 루빈을 위한 엔비디아 DSX 플랫폼을 발표했다. 여기에는 DSX 맥스-Q(DSX Max-Q)가 포함되며, 이는 AI 팩토리 전체에 동적 전력 프로비저닝(provisioning)을 통해, 전력이 고정된 데이터센터에서 최대 30% 더 많은 AI 인프라 구축을 지원한다. 새로운 DSX 플렉스(DSX Flex) 소프트웨어는 AI 팩토리를 전력망 유연성을 갖춘 에셋으로 전환해, 100기가와트 규모의 유휴 전력을 활용할 수 있다. 또한 엔비디아는 베라 루빈 DSX AI 팩토리 레퍼런스 디자인(Vera Rubin DSX AI Factory reference design) 을 공개했다. 이는 와트당 토큰 수와 전체 처리량을 극대화하고, 시스템 복원력을 높이며, 초기 프로덕션까지 걸리는 시간을 단축하는 공동 설계 AI 인프라의 블루프린트(blueprint)를 제공한다. 이 아키텍처는 컴퓨팅, 네트워킹, 스토리지, 전력, 냉각을 긴밀하게 통합함으로써, 에너지 효율성을 높이고 AI 팩토리가 지속적인 고강도 워크로드 환경에서도 최대 가동 시간을 유지하며 안정적으로 확장될 수 있도록 지원한다. 광범위한 생태계 지원 베라 루빈 기반 제품은 올해 하반기부터 파트너사를 통해 제공될 예정이다. 여기에는 아마존 웹 서비스(Amazon Web Services), 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure) 등 주요 클라우드 제공업체와 함께, 엔비디아 클라우드 파트너(Cloud Partners)인 코어위브(CoreWeave), 크루소(Crusoe), 람다(Lambda), 네비우스(Nebius), 엔스케일(Nscale), 투게더 AI(Together AI)가 포함된다. 글로벌 시스템 제조업체인 시스코(Cisco), 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)는 베라 루빈 기반 제품을 탑재한 다양한 서버를 공급할 것으로 예상된다. 여기에는 에이브레스(Aivres), 에이수스(ASUS), 폭스콘(Foxconn), 기가바이트(GIGABYTE), 인벤텍(Inventec), 페가트론(Pegatron), 퀀타 클라우드 테크놀로지(Quanta Cloud Technology, QCT), 위스트론(Wistron), 위윈(Wiwynn) 등도 포함된다. 앤트로픽, 메타(Meta), 미스트랄 AI, 오픈AI를 포함한 AI 연구소와 최첨단 모델 개발사들은 엔비디아 베라 루빈 플랫폼을 활용해 더 크고 성능이 뛰어난 모델을 훈련시키고, 이전 GPU 세대보다 더 낮은 지연 시간과 비용으로 긴 컨텍스트 멀티모달 시스템을 제공할 계획이다.
대장
2026.03.17
0
0
인피니언 테크놀로지스(코리아 대표이사 이승수)는 엔비디아와의 협력을 확대해 피지컬 AI를 위한 시스템 아키텍처 개발을 가속한다고 밝혔다. 양사는 2025년 8월 발표된 기존 협력을 기반으로, 인피니언의 모터 제어, 마이크로컨트롤러, 전력 시스템 및 보안 기술과 엔비디아의 AI, 로보틱스, 시뮬레이션 플랫폼을 결합해 업계가 휴머노이드 로봇을 설계하고 상용화하는 것을 지원할 것이다. 인피니언은 또한 엔비디아의 Halos AI Systems Inspection Lab에 참여해 견고한 하드웨어 및 소프트웨어 안전 기반 설계를 검토하여, 로봇이 실제 환경에서 안전하고 보안적으로 작동할 수 있도록 할 것이다. 휴머노이드 로봇은 주변을 인지하고, 실시간으로 의사 결정을 내리며, 사람을 위해 설계된 작업 공간에서 안전하게 움직여야 하는 복잡한 시스템이다. 이를 위해서는 센싱, 프로세싱, 구동, 커넥티비티, 에너지 관리 등 반도체 기반 기능의 연결이 필수적이다. 인피니언은 반도체 솔루션을 엔비디아의 시뮬레이션 및 로보틱스 플랫폼에 통합해 센싱, 판단, 안전하고 보안적인 동작의 전 과정을 가속화하여, 휴머노이드 로봇이 실험실 단계에서 대규모 상용 배치로 빠르게 전환될 수 있도록 지원한다. 이번 협력의 핵심 요소는 인피니언 스마트 액추에이터 및 엄선된 센서의 디지털 트윈 활용이다. 이러한 가상 모델은 개방형 로보틱스 학습 및 시뮬레이션 프레임워크인 NVIDIA Isaac Sim 및 NVIDIA Isaac Lab에 적용되어, 개발자들이 하드웨어 제작 및 통합 이전에 현실적인 시뮬레이션 환경에서 로봇 모션 제어와 인지 기능을 테스트하고 조정할 수 있도록 한다. 이를 통해 고객은 개발 초기 단계에서 문제를 발견하고 해결할 수 있어, 물류, 제조, 서비스 로봇 등 휴머노이드 로봇의 시장 출시 시간을 단축하고 통합 리스크를 줄일 수 있다. 인피니언 전력 및 센서 시스템 부문의 아담 화이트(Adam White) 사장은 “지능형 로봇은 주변을 인식하고 판단하고 행동하는 데 필요한 마이크로 일렉트로닉스에 의존하기 때문에, 로보틱스 시장의 빠른 성장은 반도체 시장의 성장을 견인할 것이다. 인피니언의 전력, 모터, 제어, 마이크로컨트롤러, 보안 기술과 엔비디아의 로보틱스 및 디지털 트윈 플랫폼, Halos AI Systems Inspection Lab을 결합함으로써 개발자들이 설계를 더 빠르게 검증하고, 휴머노이드 로봇을 실험실 단계에서 실제 운영 단계로 전환하며, 프로토타입에서 대규모 플릿 배치까지 확장할 수 있도록 지원하고 있다.”라고 말했다. 엔비디아 로보틱스 및 엣지 AI 부문 디푸 탈라(Deepu Talla )부사장은 “차세대 휴머노이드 로봇은 복잡한 실제 환경을 안전하게 탐색하기 위한 피지컬 AI를 요구하며, 최고 수준의 기능 안전과 보안 기준을 충족해야 한다. 인피니언은 엔비디아의 젯슨 토르(Jetson Thor)와 고급 시뮬레이션 기술을 센싱 및 액추에이션 솔루션에 통합함으로써, 개발자들에게 안전한 차세대 자율 로봇의 상용화를 가속할 수 있는 강력한 플랫폼을 제공하고 있다.”라고 말했다. 인피니언, 휴머노이드 로봇의 안전하고 보안적인 센싱, 이동, 동작, 연결 지원 인피니언과 엔비디아는 기존 협력을 기반으로 초저지연, 소형 폼팩터 및 고전력 밀도를 갖춘 휴머노이드 로봇용 공통 시스템 아키텍처를 개발할 것이다. 인피니언은 NVIDIA Jetson Thor 개발 플랫폼과 연동되는 NVIDIA Holoscan Sensor Bridge 기반의 모터 제어 솔루션을 제공하며, AURIX™ 마이크로컨트롤러 및 PSOC™ 디바이스를 활용하고 펌웨어 및 시스템 보호를 위한 PQC(양자내성암호)를 지원할 것이다. 보안은 협력의 핵심이다. NVIDIA Jetson Thor는 소형 컴퓨팅 모듈과 센서, 네트워크, 액추에이터에 전원을 공급하고 인터페이스를 제공하는 캐리어 보드로 구성된다. 인피니언은 AI 모델과 데이터를 보호하고 NVIDIA Jetson 모듈부터 클라우드까지 시스템 전체를 안전하게 유지하기 위해 하드웨어 TPM(Trusted Platform Module) 칩 및 기타 보안 구성 요소를 레퍼런스 디자인으로 제공할 예정이다. 또한 이번 협력은 레벨 4 자율주행 차량 및 로봇 시스템 인증 설계를 지원하는 Halos 안전 프레임워크에 중점을 둘 것이다. 인피니언은 하드웨어 및 소프트웨어 안전 기반을 제공하고, 하드웨어 플랫폼과 운영 체제를 통합하여 전체 스택에 걸쳐 설계 단계부터 엄격한 안전 및 체계적인 사이버 보안을 보장한다. 이를 통해 Jetson 기반 캐리어 보드를 설계하는 기업들은 시큐어 부트, 암호화 통신, 보안적인 OTA 업데이트 등 강화된 보안을 구축할 수 있다. 로보틱스 업계의 신뢰받는 파트너인 인피니언은 엔비디아와 휴머노이드 OEM 등 에코시스템 파트너와 협력하며, 센서, 마이크로컨트롤러, 액추에이터, 이더넷 기반 네트워킹 등 커넥티비티, 메모리, 배터리 관리 시스템까지 휴머노이드 로봇의 핵심 기능 블록에 필요한 광범위한 포트폴리오를 제공한다. Si·SiC·GaN 등 다양한 반도체 기술을 기반으로, 인피니언은 휴머노이드 로봇 1대당 약 500달러 수준의 반도체 부품을 제공할 것으로 추정한다. 인피니언은 로봇이 안전하고 보안적으로 감지, 이동, 동작, 연결할 수 있는 솔루션을 제공하여 로봇 도입 속도를 가속화한다.
대장
2026.03.17
0
0
엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 세계 최초의 에이전틱 AI·강화학습 전용 프로세서 엔비디아 베라 CPU(NVIDIA Vera CPU)를 공개했다. 엔비디아 베라 CPU는 기존 랙 스케일 CPU 대비 2배 높은 효율과 50% 빠른 성능을 제공한다. 추론과 에이전틱 AI가 발전을 거듭하면서, 작업 계획 수립과 도구 실행, 데이터 상호작용, 코드 실행, 결과 검증을 수행하는 모델을 지원하는 인프라가 규모와 성능, 비용을 좌우하는 핵심 요소로 부상하고 있다. 엔비디아 베라 CPU는 엔비디아 그레이스 CPU(Grace™ CPU)의 성과를 바탕으로 개발됐으며, 다양한 규모의 조직과 산업 전반에서 에이전틱 AI의 대규모 구현에 필요한 AI 팩토리를 구축할 수 있도록 지원한다. 최상급 단일 스레드 성능과 코어당 대역폭을 갖춘 베라는 새로운 등급의 CPU다. 코딩 어시스턴트와 같은 대규모 AI 서비스는 물론, 소비자와 기업용 에이전트에서 더 높은 AI 처리량과 응답성, 효율성을 제공한다. 베라 도입을 위해 엔비디아와 협력 중인 선도적 하이퍼스케일러에는 알리바바(Alibaba), 코어위브(CoreWeave), 메타(Meta), 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure, OCI) 등이 있다. 델 테크놀로지스(Dell Technologies), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE), 레노버(Lenovo), 슈퍼마이크로(Supermicro) 등 글로벌 시스템 제조사도 베라 기반 서버를 설계하고 있다. 이처럼 폭넓은 채택을 바탕으로 베라는 개발자와 스타트업, 공공 및 민간 조직 등 다양한 기관이 필요로 하는 AI 워크로드의 새로운 CPU 표준으로 자리 잡아 AI 접근성을 높이고 혁신을 가속할 것으로 기대된다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “베라는 AI의 전환점에 등장했다. 인텔리전스가 에이전틱 형태로 발전해 추론과 행동이 가능해지면서 그 작업을 오케스트레이션(orchestration)하는 시스템의 중요도는 높아지고 있다. 이제 CPU는 단순한 지원 역할을 넘어 모델을 직접 구동하는 단계로 확장되고 있다. 베라는 혁신적인 성능과 에너지 효율을 바탕으로 더욱 빠르게 사고하고 더욱 큰 규모로 확장하는 AI 시스템의 시대를 연다”라고 말했다. 모든 데이터센터 환경에 적합한 구성 엔비디아는 256개 수랭식 베라 CPU로 구성된 새로운 베라 CPU 랙을 발표했다. 이는 독립적으로 실행되는 2만 2,500개 이상의 동시 CPU 환경을 최대 성능으로 지원한다. 이를 통해 AI 팩토리는 단일 랙에서 수만 개의 인스턴스와 에이전틱 도구를 동시에 빠르게 배포, 확장할 수 있다. 베라 랙은 전 세계 80개 생태계 파트너가 지원하는 엔비디아 MGX™ 모듈형 레퍼런스 아키텍처를 기반으로 구축됐다. 엔비디아 베라 루빈 NVL72 플랫폼에 포함된 베라 CPU는 엔비디아 NV링크-C2C(NVLink™-C2C) 인터커넥트 기술을 바탕으로 엔비디아 GPU와 결합될 수 있다. 이 기술은 1.8 TB/s의 일관적인 대역폭을 제공하며, PCIe 젠 6(Gen 6) 대역폭보다 7배 높은 수준으로 CPU와 GPU 사이 고속 데이터 공유가 가능하다. 또한 엔비디아는 베라를 엔비디아 HGX™ 루빈(Rubin) NVL8 시스템의 호스트 CPU로 사용해 GPU 가속 워크로드의 데이터 이동과 시스템 제어를 조율할 수 있는 새로운 레퍼런스 디자인을 발표했다. 베라 시스템 파트너들은 듀얼, 싱글 소켓 CPU 서버 구성을 제공하고 있다. 이는 강화학습과 에이전틱 추론, 데이터 처리, 오케스트레이션, 스토리지 관리, 클라우드 애플리케이션, 고성능 컴퓨팅과 같은 워크로드에 최적화돼 있다. 베라 시스템은 모든 구성에서 엔비디아 커넥트X 슈퍼NIC(ConnectX® SuperNIC) 카드를 비롯한 엔비디아 블루필드-4(BlueField®-4) DPU와 통합돼 가속 네트워킹, 스토리지와 보안 기능을 제공하며, 이는 에이전틱 AI의 구현에 중요한 요소다. 이를 통해 특정 워크로드에 맞춰 시스템을 최적화하면서도 엔비디아 플랫폼 전반에서 단일 소프트웨어 스택을 유지할 수 있게 된다. 에이전틱 확장을 위한 설계 고성능, 고효율의 CPU 코어와 고대역폭 메모리 서브시스템, 2세대 엔비디아 스케일러블 코히어런시 패브릭(Scalable Coherency Fabric)을 결합한 베라는 에이전틱 AI와 강화학습 환경과 같이 시스템 활용도가 높은 상황에서도 더욱 신속한 에이전틱 응답을 가능하게 한다. 베라는 엔비디아가 자체 설계한 올림푸스(Olympus) 코어 88개를 탑재해 컴파일러, 런타임 엔진, 분석 파이프라인, 에이전틱 툴링(tooling), 오케스트레이션 서비스에서 높은 성능을 제공한다. 각 코어는 엔비디아 공간적 멀티스레딩(Spatial Multithreading)을 활용해 두 개의 작업을 동시에 실행하면서 일관되고 예측 가능한 성능을 제공한다. 이 같은 특성은 여러 작업을 동시에 실행하는 다중 테넌트(multi-tenant) AI 팩토리에 특히 적합하다. 또한 에너지 효율을 더욱 높이기 위해 베라는 엔비디아 저전력 메모리 서브시스템의 2세대 아키텍처를 도입했다. 이는 LPDDR5X 메모리를 기반으로 하며 최대 1.2TB/s의 대역폭을 제공한다. 일반 범용 CPU와 비교해 대역폭은 두 배, 전력 소비는 절반 수준이다. 폭넓은 생태계 지원 AI 네이티브 소프트웨어 개발 분야의 혁신 기업인 커서(Cursor)는 AI 코딩 에이전트의 성능을 향상시키기 위해 엔비디아 베라를 도입하고 있다. 커서 공동 창립자 겸 CEO 마이클 트루엘(Michael Truell)은 “엔비디아 베라 CPU를 통해 전체 처리량과 효율성을 높여 고객에게 더 빠르고 반응성이 뛰어난 코딩 에이전트 경험을 제공할 수 있게 되기를 기대한다”고 말했다. 데이터 스트리밍, AI 플랫폼 선도 기업 레드판다(Redpanda)는 베라를 활용해 성능을 크게 향상시키고 있다. 레드판다 창립자 겸 CEO 알렉스 갈레고(Alex Gallego)는 “레드판다는 최근 엔비디아 베라에서 아파치 카프카(Apache Kafka) 호환 워크로드를 테스트한 결과 기존에 벤치마킹한 시스템 대비 탁월한 성능 향상을 확인했다. 특히 레이턴시는 5.5배까지 줄었다. 베라는 코어당 더 많은 메모리와 더 낮은 오버헤드를 제공하는 CPU 아키텍처의 새로운 방향을 제시한다. 이를 통해 고객들은 실시간 스트리밍 워크로드를 이전보다 월등히 큰 규모로 확장하고, 새로운 AI와 에이전틱 애플리케이션을 구현할 수 있게 된다”고 말했다. 라이프니츠 슈퍼컴퓨팅 센터(Leibniz Supercomputing Centre)와 로스앨러모스 국립 연구소(Los Alamos National Laboratory), 로렌스 버클리 국립 연구소(Lawrence Berkeley National Laboratory) 산하 국립 에너지 연구 과학 컴퓨팅 센터(National Energy Research Scientific Computing Center), 텍사스 첨단 컴퓨팅 센터(Texas Advanced Computing Center, TACC) 등의 국가 연구 기관 또한 베라 CPU 도입을 계획하고 있다. TACC 고성능 컴퓨팅 디렉터 존 케이즈(John Cazes)는 “TACC는 차세대 호라이즌(Horizon) 시스템에 베라를 도입하기에 앞서 최근 베라 CPU 플랫폼을 테스트했다. 여섯 개의 과학 애플리케이션을 실행한 결과 놀라운 초기 성능이 확인됐다. 베라의 코어당 성능과 메모리 대역폭은 과학 컴퓨팅 분야의 비약적인 도약을 의미한다. TACC는 올해 말 호라이즌 시스템의 CPU 사용자들에게 베라 기반 노드를 제공할 수 있기를 기대한다”라고 말했다. 베라 CPU 도입을 계획 중인 선도적인 클라우드 서비스 제공업체로는 알리바바, 바이트댄스(ByteDance), 클라우드플레어(Cloudflare), 코어위브, 크루소(Crusoe), 람다(Lambda), 네비우스(Nebius), 엔스케일(Nscale), OCI, 투게더.AI(Together.AI), 벌처(Vultr) 등이 있다. 베라 CPU를 도입한 주요 인프라 공급업체로는 에이브레스(Aivres), 애즈락 랙(ASRock Rack), 에이수스(ASUS), 컴팔(Compal), 시스코(Cisco), 델, 폭스콘(Foxconn), 기가바이트(GIGABYTE), HPE, 하이브(Hyve), 인벤텍(Inventec), 레노버, 미텍(MiTAC), MSI, 페가트론(Pegatron), 콴타 클라우드 테크놀로지(Quanta Cloud Technology QCT), 슈퍼마이크로, 위스트론(Wistron), 위윈(Wiwynn) 등이 있다.
대장
2026.03.17
0
0
- 올가을 출시 예정... 픽셀에 사실적 조명·재질 더하는 실시간 뉴럴 렌더링 모델 도입 - 2018년 실시간 레이 트레이싱 기술에 이어 엔비디아가 선보이는 차세대 컴퓨터 그래픽 혁신 - 베데스다, 캡콤, 호타 스튜디오, 넷이즈, 엔씨소프트, S-GAME, 텐센트, 유비소프트, 워너 브라더스 게임즈 등 지원 AI 컴퓨팅 기술 분야의 선두주자인 엔비디아(www.nvidia.co.kr, CEO 젠슨 황)가 미국 새너제이에서 열린 세계 최대 AI·가속 컴퓨팅 콘퍼런스인 ‘엔비디아(NVIDIA) GTC 2026’에서 DLSS 5를 공개했다. DLSS 5는 2018년 발표된 실시간 레이 트레이싱 기술에 이어 엔비디아가 선보이는 차세대 컴퓨터 그래픽 혁신이다. DLSS 5는 픽셀에 사실적인 조명과 재질을 더하는 실시간 뉴럴 렌더링 모델을 도입한다. 이를 통해 렌더링과 현실 사이의 간극을 좁히며, 덕분에 게임 개발자들은 그동안 할리우드(Hollywood) 시각 효과에서만 가능했던 새로운 수준의 사실적인 컴퓨터 그래픽을 구현할 수 있다. 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 “엔비디아가 프로그래머블 셰이더(programmable shader)를 발명한 지 25년이 지난 지금, 우리는 컴퓨터 그래픽을 다시 한 번 재창조하고 있다. DLSS 5는 그래픽 분야의 ‘GPT 모멘트’로, 수작업 렌더링과 생성형 AI를 결합해 시각적 사실성을 비약적으로 끌어올린다. 동시에 아티스트가 창의적 표현에 필요한 제어력을 유지할 수 있도록 한다”고 말했다. 시네마틱 격차 해소 엔비디아 지포스(GeForce™) 출시 이후 엔비디아는 게임 개발자들이 생생하고 사실적인 세계를 구현할 수 있도록 그래픽 성능을 제공해 왔다. 이러한 세계에서는 조명, 반사, 그림자가 자연의 법칙에 따라 표현된다. 2001년 프로그래머블 셰이더를 탑재한 지포스 3, 2006년 쿠다(CUDA®)를 탑재한 지포스 8800 GTX™, 2018년 실시간 레이 트레이싱을 탑재한 지포스 RTX™ 2080 Ti, 2025년 패스 트레이싱과 뉴럴 셰이더를 탑재한 지포스 RTX 5090에 이르기까지 엔비디아는 주요 아키텍처 혁신과 함께 컴퓨팅 성능을 37만 5,000배 이상 끌어올리며 이러한 도전에 대응해 왔다. 그러나 약 16밀리초의 게임 프레임에 사용할 수 있는 렌더링 성능은 렌더링에 수분에서 수 시간이 걸리는 할리우드의 사실적인 VFX 프레임과 비교하면 극히 일부에 불과하다. 실시간 렌더링은 단순한 컴퓨팅 성능만으로는 사실성의 격차를 메울 수 없다. DLSS는 성능 향상을 위한 AI 기술로, 2018년 처음 공개됐다. 초기에는 해상도를 업스케일링하는 방식으로 시작해 이후에는 완전히 새로운 프레임을 생성하는 방식으로 발전했다. 현재 DLSS는 750개 이상의 게임에 도입되며 업계 표준 기술로 자리 잡았다. 올해 CES에서 공개된 DLSS 4.5는 AI를 활용해 화면에 표시되는 픽셀 24개 중 23개를 생성한다. 이제 DLSS는 단순한 성능 향상을 넘어 게임의 시각적 충실도를 혁신하는 방향으로 진화하고 있다. 비디오 AI 모델은 빠르게 발전해 사실적인 픽셀을 생성할 수 있지만 대부분 오프라인 환경에서 작동한다. 따라서 정밀한 제어가 어렵고 예측 가능성이 낮으며, 새로운 프롬프트를 입력할 때마다 결과가 달라지는 경우도 많다. 그러나 게임에서는 픽셀이 결정론적(deterministic)으로 생성돼야 하며, 실시간으로 제공돼야 한다. 동시에 게임 개발자가 구축한 3D 월드와 예술적 의도를 충실히 반영해야 한다. DLSS 5는 각 프레임의 색상과 모션 벡터를 입력으로 받아, AI 모델을 통해 장면에 사실적인 조명과 재질을 더한다. 이 조명과 재질은 원본 3D 콘텐츠에 기반하며, 프레임 간 일관성을 유지한다. DLSS 5는 최대 4K 해상도에서 실시간으로 구동돼 부드럽고 인터랙티브한 게임플레이를 지원한다. AI 모델은 단일 프레임 분석만으로도 캐릭터, 머리카락, 직물, 반투명 피부 등 복잡한 장면 요소와 정면 조명, 역광, 흐린 날씨와 같은 환경 조명 조건을 이해하도록 엔드투엔드 방식으로 훈련됐다. 이를 바탕으로 DLSS 5는 피부의 서브서피스 스캐터링(subsurface scattering, SSS), 직물의 섬세한 광택, 머리카락에서의 빛과 재질 간 상호작용 등 복잡한 요소를 처리하면서도 원본 장면의 구조와 의미를 유지한 정밀한 이미지를 생성한다. DLSS 5는 강도, 컬러 그레이딩(color grading), 마스킹(masking) 등 세밀한 제어 기능을 제공한다. 덕분에 아티스트는 각 게임의 고유한 미적 감각을 유지하면서도 효과가 적용될 위치와 방식을 결정할 수 있다. 또한 기존 DLSS와 엔비디아 리플렉스(Reflex) 기술에 사용되는 동일한 엔비디아 스트림라인(Streamline) 프레임워크를 통해 통합은 손쉽게 이뤄질 수 있다. 출시 정보·게임 개발사 지원 DLSS 5는 베데스다(Bethesda), 캡콤(CAPCOM), 호타 스튜디오(Hotta Studio), 넷이즈(NetEase), 엔씨소프트(NCSOFT), S-GAME, 텐센트(Tencent), 유비소프트(Ubisoft), 워너 브라더스 게임즈(Warner Bros. Games) 등 주요 배급사·개발사에서 지원할 예정이다. 베데스다 게임 스튜디오(Bethesda Game Studios) 대표 겸 총괄 프로듀서 토드 하워드(Todd Howard)는 “엔비디아와 베데스다는 게임 그래픽과 혁신을 발전시키는 데 있어 오랜 역사를 함께해 왔으며, DLSS 5는 그 여정의 다음 주요 단계이다. DLSS 5를 통해 실시간 렌더링의 기존 한계에 제약받지 않고 예술적 스타일과 디테일이 그대로 표현된다. 우리는 이 새로운 기술과 협력하게 돼 기쁘며, ‘스타필드(Starfield)’와 향후 베데스다 타이틀에 DLSS 5를 적용하기를 기대하고 있다”고 말했다. 캡콤 총괄 프로듀서 겸 전무 타케우치 준(Jun Takeuchi)은 “캡콤은 영화 같은 몰입감과 깊은 설득력을 갖춘 경험을 만드는 데 노력하고 있다. 모든 그림자, 텍스처, 한 줄기의 빛까지도 분위기와 감정적 몰입을 강화하기 위해 의도적으로 설계된다. DLSS 5는 시각적 충실도를 한 단계 끌어올리는 중요한 진전으로, 플레이어가 ‘바이오하자드(Resident Evil)’ 세계에 깊이 몰입할 수 있도록 도울 것”이라고 말했다. 밴티지 스튜디오(Vantage Studios) 공동 CEO 찰리 기예모(Charlie Guillemot)는 “몰입감이란 세계를 실제처럼 느끼게 만드는 것이다. DLSS 5는 그 목표를 향한 중요한 진전이다. DLSS 5가 조명과 재질, 캐릭터를 렌더링하는 방식은 플레이어에게 제공할 수 있는 경험의 수준을 바꿔 놓고 있다. DLSS 5는 ‘어쌔신 크리드 섀도우스(Assassin’s Creed Shadows)’에서 우리가 항상 만들고 싶었던 세계를 구현할 수 있게 지원하고 있다”고 말했다. DLSS 5는 ‘아이온2(AION 2)’, ‘어쌔신 크리드 섀도우스’, ‘블랙 스테이트(Black State)’, ‘신더시티(CINDER CITY)’, ‘델타 포스(Delta Force)’, ‘호그와트 레거시(Hogwarts Legacy)’, ‘저스티스(Justice)’, ‘나라카: 블레이드포인트(NARAKA: BLADEPOINT)’, ‘이환(NTE: Neverness to Everness)’, ‘팬텀 블레이드 제로(Phantom Blade Zero)’, ‘바이오하자드 레퀴엠(Resident Evil Requiem)’, ‘렘넌트의 바다(Sea of Remnants)’, ‘스타필드’, ‘엘더스크롤 4: 오블리비언 리마스터(The Elder Scrolls IV: Oblivion Remastered)’, ‘연운(Where Winds Meet)’ 등 다양한 게임에 적용될 예정이다. DLSS 5는 올가을 출시될 예정이다.
대장
2026.03.17
0
0
아마존은 새로운 AI 비서 알렉사+의 웹 기반 인터페이스를 알렉사닷컴(Alexa.com)에 출시하여, 얼리 액세스 사용자들이 다른 AI 챗봇처럼 브라우저에서 알렉사와 대화할 수 있도록 했습니다. 아마존은 에코 스피커와 파이어 TV를 넘어 알렉사를 더욱 확장하고 있습니다. 아마존은 새로운 AI 비서 알렉사+를 위한 웹 기반 인터페이스인 Alexa.com을 조용히 출시했으며, 얼리 액세스 사용자는 ChatGPT나 구글 제미니처럼 브라우저에서 알렉사와 대화할 수 있게 되었습니다. 현재 Alexa.com은 Alexa+ 얼리 액세스 프로그램 의 일부입니다 . 사용하려면 미국 기반 아마존 계정, Alexa Plus 이용 권한, 그리고 계정에 연결된 아마존 에코 스튜디오 , 파이어 TV 또는 파이어 태블릿과 같은 호환 기기가 하나 이상 필요합니다. 웹에서는 아직 자녀 프로필이 지원되지 않으며, 아마존은 현재 미국 내 출시를 제한하고 있습니다. Alexa.com이 할 수 있는 일 아마존에 따르면 Alexa.com은 "Alexa+의 모든 기능"을 브라우저에서 사용할 수 있도록 해줍니다. 이 사이트는 친숙한 채팅 스타일 인터페이스를 제공하며, 다음과 같은 기능을 이용할 수 있습니다. 일반 상식 질문을 하거나 복잡한 주제에 대해 깊이 있게 질문할 수도 있습니다. 여행 계획을 세우고 티켓 구매 및 일정표를 작성하세요. 할 일, 할 일 목록, 미리 알림을 정리하세요 숙제나 연구에 도움이 필요하세요? 이메일, 요약문 또는 기본적인 창작 텍스트와 같은 콘텐츠를 생성합니다. 무엇보다 중요한 것은 웹 기반 Alexa+가 다른 기기들과 대화 내용을 공유하도록 설계되었다는 점입니다. Alexa.com에서 시작한 대화는 나중에 Echo 스피커, Fire TV 또는 Alexa 모바일 앱에서 이어갈 수 있으며, Alexa는 사용자가 어떤 이야기를 하고 있었는지 기억합니다. 웹 앱은 더 넓은 아마존 생태계와도 통합됩니다. 외부 보고서에 따르면 알렉사+가 문서를 검색하고 이미지를 인식하도록 업로드하는 기능, 레시피를 쇼핑 목록으로 변환하는 기능, 아마존 프레시 및 홀푸드와 같은 서비스와 연동하여 식단 계획 및 식료품 배달을 지원하는 기능 등이 있지만, 이러한 기능 중 일부는 아직 출시 중입니다. 얼리 액세스 제한 사항 Alexa.com은 아직 얼리 액세스 버전으로 분류되어 있으며 몇 가지 주목할 만한 제한 사항이 있습니다. 현재로서는 브라우저 내에서 텍스트 기반 상호 작용만 가능하며, 직접적인 음성 입력은 지원하지 않습니다. 웹사이트에서는 음악 재생 및 일부 엔터테인먼트 제어 기능을 사용할 수 없습니다. 스마트 홈 제어 기능은 에코 기기보다 제한적입니다. 일부 기기 유형 및 루틴은 여전히 앱이나 스피커가 필요합니다. 미국 영어 언어 설정이 되어 있는 성인 프로필만 지원됩니다. 아마존은 시간이 지남에 따라 더 많은 기능이 추가될 것이라고 밝혔으며, 웹 앱은 에코 하드웨어를 완전히 대체하는 것이 아니라 보완하는 도구라고 강조했습니다. 가격 책정 및 포지셔닝 알렉사 플러스는 아마존이 기존 알렉사 음성 비서를 업그레이드한 생성형 AI 버전입니다. 더욱 자연스럽고 단계적인 대화를 제공하며, 서비스 예약이나 후속 조치 처리와 같은 에이전트급 작업을 사용자를 대신하여 수행할 수 있습니다. 이 서비스는 월 19.99달러이지만, 아마존의 이전 발표에 따르면 미국 프라임 회원은 추가 비용 없이 이용할 수 있습니다. 아마존은 Alexa.com을 통해 5억 대가 넘는 기존 Alexa 지원 기기 기반을 활용하면서, Alexa+를 ChatGPT나 Google Gemini 같은 브라우저 기반 AI 챗봇의 직접적인 경쟁자로 자리매김하고 있습니다. 이제 사용자들은 동일한 어시스턴트와 계정에 연결된 Echo의 음성, Fire TV의 터치, 웹 브라우저의 키보드와 마우스 등 다양한 입력 방식을 자유롭게 전환하며 사용할 수 있습니다.
태나아빠
2026.01.22
0
1
ASUS, 서버 매출 예상치 상회하며 "AI에 총력 투자" 전략 선언…소비자용 PC 시장 불확실성에 대한 강력한 대비책 마련 대형 PC 제조사 중 하나인 ASUS는 현재 AI 서버 사업이 "호황"을 누리고 있다고 발표하며, 특히 지속적인 메모리 부족 사태 속에서 소비자 시장의 관심을 사로잡을 수 있는 절호의 기회를 잡았다고 밝혔습니다. ASUS의 AI 사업 호황은 소비자 시장이 위축될 경우를 대비한 대안이 존재한다는 것을 보여주는 지표입니다. 최근 PC 업계는 특히 메모리 부족으로 출하량이 크게 감소할 것으로 예상되면서 어려운 시기를 겪고 있습니다 . 이러한 상황은 PC 업그레이드에 대한 불안감을 조성하는 게이머들뿐만 아니라 ASUS, Dell 등의 제조업체들에게도 소비자 시장을 공략할 수 있는 선택의 폭을 좁히는 결과를 초래했습니다. 그러나 여러 PC 제조업체들이 AI 인프라 경쟁에 집중하고 있으며, ASUS가 대표적인 사례입니다. ASUS의 조니 시 회장은 연말 파티에서 서버 사업이 호황을 누리고 있다고 선언했습니다( UDN 보도 ). NVIDIA의 대만 공급업체인 ASUS는 다양한 파트너 네트워크를 활용하여 최종 고객에게 랙 규모 솔루션을 판매할 수 있으며, NVIDIA 서버 랙의 주요 AIB(애드인 보드) 공급업체로 알려져 있습니다. ASUS의 최신 "Blackwell Ultra 기반" AI POD는 업계를 선도하는 제품으로 평가받고 있으며, 랙 외에도 B300과 같은 HGX 시스템도 제공합니다. ASUS의 "인프라 솔루션 그룹"은 회사가 AI 경쟁으로 전환하는 데 크게 기여했으며, 이를 통해 소비자 사업의 불확실성에 대한 대비책을 마련할 수 있었습니다. ASUS 회장은 서버 사업 매출이 1,000억 대만 달러(약 31억 달러)를 돌파하며 전체 매출의 20%를 차지해 예상치를 뛰어넘었다고 밝혔습니다. ASUS의 AI 사업 호황은 AI 인프라 경쟁에서 큰 기회를 포착하고 있다는 분명한 신호이며, 조니 시 회장이 "AI에 모든 것을 걸겠다"고 선언한 이유이기도 합니다. PC 제조업체들이 DRAM을 확보하지 못하게 된다면 어떻게 될지 궁금해하는 사람이 있다면, ASUS는 이미 그에 대한 대책을 마련해 놓았다고 답할 수 있습니다. AI 공급망이 다변화와 추가 파트너 확보를 절실히 필요로 한다는 것은 의심의 여지가 없으며, 이것이 바로 ASUS의 AI 사업 매출이 급증하고 있는 이유입니다. ASUS는 올해 사업 영역 확장을 계획하고 있는데, 이는 메모리 부족 사태가 심화될 경우 PC 제조사들이 AI를 광범위한 '구조조정' 전략의 핵심 요소로 여길 것임을 시사합니다. https://wccftech.com/asus-declares-all-in-ai-strategy-as-server-revenue-soars-beyond-expectation/
태나아빠
2026.01.19
0
1
- 이벤트
l
- 체험단 모집
l
- 특가 이벤트
l
- 당첨/발표