e경제일보 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
건설
피플
국제
이슈
문화
딥인사이트
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.03.03 화요일
흐림
서울 7˚C
흐림
부산 8˚C
흐림
대구 9˚C
구름
인천 7˚C
흐림
광주 7˚C
흐림
대전 6˚C
비
울산 6˚C
비
강릉 3˚C
흐림
제주 9˚C
검색
검색 버튼
검색
'H100'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
4
건
오픈AI가 선택한 '엔비디아 대항마'...세레브라스, 기업가치 33조원 폭등
[이코노믹데일리] 반도체 업계의 '파괴적 혁신가'로 불리는 세레브라스 시스템스(대표 앤드류 펠드먼)가 기업가치 231억달러(약 33조6000억원)를 기록하며 엔비디아의 강력한 대항마로 부상했다. 불과 4개월 만에 몸값이 3배로 뛴 배경에는 반도체 제조의 상식을 뒤엎는 기술력과 오픈AI라는 든든한 우군 그리고 미국 정계와의 연결고리가 자리 잡고 있다. 4일(현지시간) 로이터 등 외신에 따르면 세레브라스는 최근 10억달러(약 1조4500억원) 규모의 투자 유치에 성공했다. 이번 투자에는 타이거 글로벌과 벤치마크 등 실리콘밸리의 거물들은 물론 도널드 트럼프 대통령의 장남 트럼프 주니어가 설립한 '1789 캐피털'이 참여해 눈길을 끌었다. 이는 세레브라스의 기술이 단순한 스타트업의 도전을 넘어 미국의 국가적 AI 인프라 전략과 궤를 같이하고 있음을 시사한다. 세레브라스가 엔비디아의 독주를 끝낼 후보로 꼽히는 가장 큰 이유는 '웨이퍼 스케일 엔진(WSE)'이라는 독보적 기술이다. 기존 반도체 공정은 커다란 원판인 웨이퍼를 수백 개의 작은 칩으로 잘라낸 뒤 이를 다시 연결하는 방식을 취한다. 하지만 세레브라스는 웨이퍼 전체를 단 하나의 거대한 칩으로 만든다. 최신 모델인 WSE-3는 가로세로 약 20cm 크기의 단일 칩에 4조개의 트랜지스터와 90만개의 AI 최적화 코어를 집적했다. 엔비디아의 최신 칩 H100의 트랜지스터 수가 800억개 수준임을 감안하면 산술적으로 50배 이상의 집적도를 자랑한다. 칩을 잘게 쪼개지 않기 때문에 칩과 칩 사이의 통신 병목 현상이 원천적으로 발생하지 않으며 데이터 처리 속도는 수백 배 빠르다. ◆ 엔비디아의 아킬레스건 'HBM' 병목을 뚫다 현재 엔비디아를 비롯한 대다수 AI 칩 제조사들은 연산 칩과 데이터 저장 칩(HBM)을 별도로 만들어 연결한다. 이 과정에서 발생하는 데이터 이동 지연과 막대한 전력 소모는 AI 학습의 최대 난제로 꼽힌다. 세레브라스는 이 문제를 '온칩 메모리' 방식으로 해결했다. 웨이퍼 전체에 44GB 용량의 초고속 SRAM 메모리를 내장해 데이터가 칩 외부로 나갈 필요가 없게 설계했다. 이는 엔비디아 칩 수백 개를 연결한 클러스터보다 더 빠른 연산 능력을 단 하나의 칩으로 구현할 수 있게 만든 핵심 동력이다. 실제로 세레브라스는 자신들의 시스템이 엔비디아 제품보다 전력 효율은 10배 높고 공간 차지 비중은 10분의 1에 불과하다고 강조한다. 기술적 우위보다 더 무서운 것은 '고객'이다. 2026년 1월 오픈AI는 세레브라스와 100억달러(약 14조5000억원) 규모의 대형 공급 계약을 체결했다. 샘 올트먼 오픈AI CEO는 엔비디아의 높은 가격과 공급 부족에 대응하기 위해 자체 칩 제작과 더불어 세레브라스와 같은 대안 세력을 적극적으로 육성하고 있다. 업계에서는 오픈AI가 차세대 초거대언어모델(LLM) 학습에 세레브라스의 시스템을 대거 투입할 것으로 보고 있다. 엔비디아의 독점 생태계인 '쿠다(CUDA)'를 우회할 수 있는 강력한 하드웨어를 확보함으로써 협상력을 높이려는 의도다. 물론 장밋빛 전망만 있는 것은 아니다. 웨이퍼 한 판을 통째로 칩으로 쓰는 만큼 제조 공정에서 단 하나의 결함만 발생해도 칩 전체를 버려야 하는 '수율(양품 비율)' 문제가 치명적이다. 세레브라스는 결함이 있는 코어를 우회하는 독자적인 회로 설계로 이를 해결했다고 주장하지만 대량 양산 단계에서의 안정성은 여전히 검증 과제다. 또한 엔비디아의 강력한 소프트웨어 장벽을 넘어서는 것도 숙제다. 전 세계 개발자들이 엔비디아의 쿠다에 익숙해져 있는 상황에서 세레브라스 전용 소프트웨어를 얼마나 빠르게 확산시키느냐가 성패를 가를 분수령이 될 전망이다. 그럼에도 불구하고 세레브라스의 급격한 가치 상승은 AI 하드웨어 시장이 '엔비디아 1강' 체제에서 다변화 체제로 넘어가고 있음을 상징한다. 2024년 IPO(기업공개) 철회라는 아픔을 겪었던 세레브라스는 이제 33조원이라는 거대한 몸값을 무기로 화려한 증시 재입성을 준비하고 있다. 반도체 역사를 새로 쓰려는 이들의 도전이 엔비디아의 아성을 흔들 수 있을지 전 세계 IT 업계의 이목이 쏠리고 있다.
2026-02-05 09:30:00
인텔 "엔비디아 독주 막겠다"…1.4나노 파운드리·GPU로 '왕의 귀환' 선언
[이코노믹데일리] '반도체 제국' 인텔이 엔비디아가 장악한 AI(인공지능) 칩 시장과 TSMC가 주도하는 파운드리(반도체 위탁생산) 시장에 동시에 도전장을 던졌다. 립부 탄 인텔 최고경영자(CEO)는 차세대 GPU 개발을 위한 '어벤저스급' 인재 영입과 1.4나노(14A) 공정에 대한 고객사들의 뜨거운 관심을 공개하며 강한 자신감을 내비쳤다. 3일(현지시간) 로이터통신 등 외신에 따르면 탄 CEO는 미국 샌프란시스코에서 열린 '시스코 AI 서밋' 기조연설에서 "최근 업계 최고의 GPU 설계 총괄책임자를 영입했다"며 AI 칩 시장 본격 진출을 공식화했다. ◆ 퀄컴·암(Arm) 핵심 인재 영입…'타도 엔비디아' 진용 구축 탄 CEO가 언급한 '비밀 병기'는 지난달 퀄컴에서 인텔 수석부사장으로 합류한 에릭 데머스로 파악된다. 데머스는 퀄컴과 AMD 등에서 30년 넘게 GPU 아키텍처를 설계해 온 베테랑이다. 여기에 지난해 암(Arm)에서 영입한 데이터센터 전문가 케보크 케치치언 총괄수석부사장이 지휘봉을 잡으면서 인텔의 AI 칩 전략은 수정 궤도에 올랐다. 기존 AI 가속기 '가우디' 시리즈에 더해 엔비디아의 H100·B200 시리즈와 직접 경쟁할 수 있는 범용 GPU 개발에 속도를 내겠다는 의지다. 탄 CEO는 "GPU는 데이터센터의 심장"이라며 "고객사들이 진정으로 원하는 스펙을 정의하고 이를 구현하는 데 집중하겠다"고 강조했다. 이는 엔비디아의 독점적 지위와 높은 가격에 피로감을 느끼는 빅테크 기업들을 공략하겠다는 포석으로 풀이된다. 파운드리 분야에서는 '초미세 공정' 기술력을 앞세워 TSMC를 맹추격하고 있다. 탄 CEO는 인텔의 차세대 공정인 1.4나노급(14A) 기술에 대해 "몇몇 주요 고객사들이 적극적인 관심을 보이며 협력하고 있다"고 밝혔다. 현재 AI 칩 생산은 TSMC의 3나노 및 4나노 공정에 집중돼 병목 현상이 심각하다. 인텔은 2027년 양산 예정인 1.4나노 공정을 통해 애플, 엔비디아, 퀄컴 등 대형 고객사의 물량을 뺏어오겠다는 전략이다. 업계에서는 인텔이 수율 안정화에만 성공한다면 '미국 내 공급망'을 선호하는 미 정부의 지원에 힘입어 TSMC의 강력한 대항마가 될 것으로 보고 있다. 탄 CEO는 중국의 기술 굴기에 대해 강한 경계심을 드러냈다. 그는 "화웨이가 막대한 자금력으로 전 세계 반도체 설계 천재들을 블랙홀처럼 빨아들이고 있다는 사실에 충격을 받았다"고 토로했다. 특히 미국의 제재로 최신 노광 장비(EUV)를 구할 수 없는 중국이 이른바 '자력갱생(poor man's way)' 방식으로 기술 장벽을 넘고 있다고 평가했다. 화웨이는 구형 장비를 활용한 멀티 패터닝 기술 등으로 5나노급 칩 양산에 성공하며 자체 생태계를 구축하고 있다. 탄 CEO는 "오픈소스 AI 분야에서는 미국이 이미 중국에 뒤처졌다는 평가도 있다"며 미 기술 업계의 각성을 촉구했다. ◆ "병목은 이제 메모리"…삼성·SK하이닉스에 기회이자 위기 AI 산업의 향후 리스크로는 '메모리 반도체'를 지목했다. 탄 CEO는 "AI 연산 속도가 빨라질수록 이를 뒷받침할 메모리 대역폭이 따라가지 못하는 병목 현상이 심화될 것"이라고 내다봤다. 이는 HBM(고대역폭메모리) 시장을 주도하는 SK하이닉스와 삼성전자에는 기회이자 과제다. 2026년 현재 AI 모델이 '학습'에서 '추론' 중심으로 넘어가면서 HBM 수요는 폭증하고 있지만 공급은 여전히 타이트하기 때문이다. 전문가들은 인텔의 GPU 시장 재진입 선언이 글로벌 반도체 공급망 재편을 가속화할 것으로 보고 있다. 반도체 업계 관계자는 "인텔이 설계와 생산(파운드리) 능력을 모두 갖춘 IDM(종합반도체기업)의 강점을 살려 엔비디아-TSMC 연합의 빈틈을 파고든다면 시장 판도가 흔들릴 수 있다"고 전망했다.
2026-02-04 07:51:45
팀네이버, '엔비디아 블랙웰' 4000장 확보…AI 개발 속도 '12배' 도약
[이코노믹데일리] 팀네이버가 엔비디아의 차세대 GPU ‘B200(블랙웰)’ 4000장을 확보하며 국내 최대 규모의 AI 컴퓨팅 클러스터 구축을 완료했다. 8일 팀네이버는 이번 인프라 혁신을 통해 독자 파운데이션 모델 ‘하이퍼클로바X’의 개발 속도를 획기적으로 단축하고 글로벌 AI 패권 경쟁에서 기술적 자립과 주권을 확보하는 ‘소버린(Sovereign) AI’ 전략을 본격화하겠다고 밝혔다. ◆ ‘블랙웰 4000장’의 위력…슈퍼컴퓨터급 인프라 완성 이번에 구축된 ‘B200 4K 클러스터’는 단순한 장비 증설을 넘어선 전략적 인프라다. 엔비디아의 최신 GPU인 B200은 전 세대 H100 대비 연산 성능은 최대 2.5배, 추론 성능은 5배 이상 향상된 것으로 평가받는다. 네이버는 이미 2019년 엔비디아의 슈퍼컴퓨팅 솔루션 ‘슈퍼팟(SuperPOD)’을 세계 최초로 도입하며 대규모 GPU 클러스터 운영 경험을 축적해 왔다. 이번 클러스터에는 그간 축적한 전력·냉각·네트워크 최적화 기술이 집약됐다. 이를 통해 글로벌 슈퍼컴퓨터 TOP500 상위권에 필적하는 연산 능력을 확보했다는 게 회사 측 설명이다. 가장 큰 변화는 학습 속도다. 팀네이버 시뮬레이션 결과 720억개(72B) 파라미터 규모의 모델을 학습하는 데 기존 A100 기반 시스템(2048장)에서는 약 18개월이 소요됐지만 B200 인프라에서는 1.5개월이면 학습이 가능한 것으로 나타났다. 12배에 달하는 속도 향상은 더 많은 가설 검증과 반복 실험을 가능하게 해 모델 완성도를 크게 끌어올릴 수 있는 기반이 된다. 압도적인 하드웨어 성능은 곧 소프트웨어 진화로 이어진다. 네이버는 이번 인프라를 토대로 텍스트 중심의 하이퍼클로바X를 이미지·비디오·음성을 동시에 이해하고 생성하는 ‘네이티브 옴니 모델(Native Omni Model)’로 고도화할 계획이다. 이는 오픈AI의 GPT-4o, 구글의 제미나이 등 글로벌 빅테크들이 멀티모달 역량 강화에 나선 흐름과 맞닿아 있다. 네이버 역시 시각과 청각을 아우르는 ‘인간과 유사한 AI’ 구현에 개발 역량을 집중한다는 전략이다. 특히 네이버클라우드가 과학기술정보통신부의 ‘독자 AI 파운데이션 모델’ 사업 주관사로 공개한 초기 옴니 모델 성과가 이번 인프라를 계기로 본격적인 스케일업 단계에 진입할 것으로 전망된다. 최수연 네이버 대표가 강조해 온 ‘국가 차원의 AI 경쟁력 기반 확보’는 네이버의 글로벌 전략인 ‘소버린 AI’와 직결된다. 소버린 AI는 각국의 언어·문화·규제 환경에 맞춘 독자적 AI 모델을 구축하는 개념으로 영어권 중심의 빅테크 AI에 대한 의존도를 낮추려는 국가들로부터 주목받고 있다. 네이버는 사우디아라비아를 비롯한 중동과 동남아 국가들을 대상으로 한국형 AI 모델 구축 경험과 인프라 기술을 수출하는 전략을 추진 중이다. 실제로 사우디 자치행정주택부와 디지털 트윈 플랫폼 구축 계약을 체결했으며 아람코와도 AI 협력을 논의하고 있다. 이번 B200 클러스터는 향후 ‘소버린 AI 벨트’ 국가들을 위한 기술 레퍼런스이자 테스트베드 역할을 수행할 것으로 기대된다. 업계에서는 이번 투자를 AI 패권 경쟁에서 밀리지 않기 위한 네이버의 ‘생존 전략’으로 평가한다. AI 기술 격차가 결국 인프라 규모에서 벌어지는 상황에서 B200 4000장 확보는 미국 빅테크와의 정면 승부를 선언한 셈이라는 분석이다. 최수연 대표는 “이번 투자는 단순한 기술 확보를 넘어 AI 자립과 주권을 뒷받침하는 핵심 자산을 마련했다는 데 의미가 있다”며 “빠른 학습과 유연한 적용을 통해 서비스와 산업 현장에서 실질적인 가치를 창출하겠다”고 말했다. 한편 2026년은 네이버가 대규모 하드웨어를 발판 삼아 ‘한국형 AI’를 넘어 글로벌 AI 플레이어로 도약하는 분기점이 될 것으로 전망된다.
2026-01-08 09:45:36
AWS '트레이니엄3' 공개에도 시장 반응 '싸늘'… "엔비디아 대체하기엔 역부족"
[이코노믹데일리] 세계 최대 클라우드 서비스 기업(CSP)인 아마존웹서비스(AWS)가 엔비디아의 독주를 막기 위해 자체 개발한 차세대 인공지능(AI) 칩 ‘트레이니엄3(Trainium3)’를 공개했으나 시장의 반응은 냉담하다. 전작 대비 효율이 좋아졌다는 주장 외에 객관적인 성능 지표를 공개하지 않아 경쟁사인 구글이나 엔비디아의 최신 칩과 비교해 기술적 우위를 증명하지 못했다는 평가가 지배적이다. AWS는 지난 2일(현지시각) 미국 라스베이거스에서 개막한 연례 기술 콘퍼런스 ‘리인벤트(re:Invent) 2025’에서 자사의 최신 AI 학습용 칩 ‘트레이니엄3’를 전격 공개했다. 맷 가먼 AWS 최고경영자(CEO)는 기조연설을 통해 “트레이니엄3는 전작인 트레이니엄2 대비 컴퓨팅 성능을 4배 이상 끌어올렸고 에너지 소비량은 40%가량 낮췄다”며 “운영 비용을 최대 50% 절감할 수 있는 효율적인 칩”이라고 강조했다. 이는 엔비디아 그래픽처리장치(GPU)에 대한 높은 의존도를 낮추고 비용 효율성을 앞세워 자체 하드웨어 생태계를 확장하겠다는 전략으로 풀이된다. 하지만 업계 전문가들은 AWS의 발표가 ‘알맹이 없는 선언’에 불과하다고 지적한다. AI 칩의 성능을 가늠하는 핵심 지표인 ‘플롭스(FLOPS, 초당 부동소수점 연산 횟수)’나 대규모언어모델(LLM) 구동 시의 벤치마크 점수를 전혀 공개하지 않았기 때문이다. 최근 구글이 자체 칩인 텐서처리장치(TPU) 최신 버전을 공개하며 자사의 AI 모델 ‘제미나이’를 학습시킬 때의 성능, 전력 효율, 속도 등을 구체적인 수치로 제시한 것과는 대조적인 행보다. 특히 엔비디아의 주력 제품군인 H100, H200, GB200 등과의 직접적인 비교 수치가 빠져 있다는 점이 의구심을 키우고 있다. AWS가 내세운 ‘전작 대비 4배 성능 향상’은 자사 제품 간의 비교일 뿐 현재 AI 칩 시장의 표준으로 자리 잡은 엔비디아 GPU와 견줘 어느 정도의 경쟁력을 갖췄는지 판단하기 어렵다. 전작인 트레이니엄2 역시 가성비 모델로 포지셔닝됐을 뿐 절대적인 성능 면에서는 GPU에 크게 미치지 못했다는 점을 고려하면 이번 신제품 역시 고성능 AI 학습 시장의 판도를 바꾸기에는 역부족일 것이라는 분석이 나온다. 대규모 AI 인프라 구축의 핵심인 ‘클러스터링’ 기술에 대해서도 우려가 제기된다. AWS는 트레이니엄3를 통해 최대 10만 개 규모의 칩 클러스터를 구성할 수 있다고 발표했다. 그러나 수만 개의 칩을 하나처럼 연결해 연산할 때 발생하는 데이터 병목 현상과 동기화 문제를 어떻게 해결했는지에 대한 기술적 설명은 부재했다. 10만 개의 칩을 물리적으로 연결하더라도 통신 속도와 효율이 뒷받침되지 않으면 실제 학습 성능은 기대에 미치지 못할 수 있다. 데이터센터 운영 비용의 핵심인 발열 관리(Thermal Throttling) 데이터가 빠진 점도 약점으로 꼽힌다. AWS는 전력 효율성을 강조했으나 실제 고부하 작업 시 칩의 발열을 제어하는 능력이나 이에 따른 실전 운영 데이터는 제시하지 않았다. 이는 엔비디아나 구글이 칩 설계 단계부터 발열 제어와 전성비(전력 대비 성능) 최적화에 사활을 걸고 구체적인 데이터를 공개하는 것과 비교해 신뢰도를 떨어뜨리는 요인이다. 소프트웨어 최적화 측면에서도 경쟁력이 모호하다는 지적이다. 구글의 경우 자사 TPU를 AI 모델 ‘제미나이’에 최적화해 학습 성능을 극대화한 반면 AWS의 트레이니엄 시리즈는 범용성을 지향하다 보니 특정 고성능 모델에서의 최적화 수준이 상대적으로 낮다. GPU 대신 트레이니엄을 사용할 경우 대규모 학습 모델에서 AI 서비스 품질 저하가 발생할 수 있다는 우려가 나오는 이유다. 클라우드 업계의 한 관계자는 “이번에 공개된 트레이니엄3의 연산 능력은 엔비디아의 현역 최신 모델인 블랙웰(Blackwell) 시리즈는커녕 이전 세대인 H100보다도 낮은 수준으로 추정된다”며 “클라우드 환경에 특화된 설계로 비용 절감 효과는 있겠지만 고도의 연산 능력이 필요한 첨단 AI 학습 영역에서 엔비디아 GPU를 대체하기는 어려울 것”이라고 평가했다.
2025-12-04 08:35:31
처음
이전
1
다음
끝
많이 본 뉴스
1
19년 만에 빗장 풀린 '한국 지도'…구글에 조건부 반출 허가, 네이버·카카오 '비상'
2
통신 3사, 갤럭시 S26 사전예약 돌입…보조금 넘어 'AI·구독·라이프 혜택' 제공
3
[KT, 이제는 정상화의 '골든타임' ①] 사법 리스크 털어낸 박윤영호(號)… 멈춰선 KT 시계 다시 돌린다
4
"통신망이 곧 컴퓨터다"…엔비디아 손잡은 SKT, 효율 택한 KT·LGU+와 '다른 길'
5
"안전 확보 최우선"…삼성전자, 이란 사태에 현지 임직원 대피
6
금감원, 금융보안 통합관제시스템 본격 가동
7
KAIST 총장 선임 불발, 사상 초유의 '전원 부적격' 탈락 '충격'
8
KB국민·신한카드 등 주요 카드사 연체율 ↓…카드업계 건전성 개선 흐름
영상
Youtube 바로가기
오피니언
[편집인 칼럼] 단종 유배지 청령포의 봄, '이벤트 행정' 아닌 '신뢰 행정'이 지킨다