경제일보 - 아시아 경제시장의 맥을 짚다
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
금융
산업
생활경제
IT
건설
정치
피플
국제
사회
문화
딥인사이트
검색
2026.04.19 일요일
맑음
서울 11˚C
맑음
부산 16˚C
흐림
대구 14˚C
맑음
인천 12˚C
흐림
광주 15˚C
흐림
대전 14˚C
흐림
울산 15˚C
흐림
강릉 17˚C
비
제주 19˚C
검색
검색 버튼
검색
'GDDR'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
5
건
최태원 회장 첫 GTC행, 젠슨 황과 재회…'AI 반도체 동맹' 굳히기 총력
[경제일보] 글로벌 AI(인공지능) 반도체 시장의 향방을 가를 '엔비디아 GTC 2026'이 초읽기에 들어갔다. 삼성전자와 SK하이닉스는 차세대 AI 메모리인 HBM4(6세대 고대역폭메모리)를 앞세워 엔비디아의 간택을 받기 위한 치열한 기술 경쟁을 예고했다. 특히 최태원 SK그룹 회장이 직접 현장을 찾아 젠슨 황 엔비디아 CEO와의 밀월 관계를 과시할 것으로 보여 양사의 수주전이 최고조에 달할 전망이다. 6일 업계에 따르면 엔비디아는 오는 16일(현지시간)부터 나흘간 미국 캘리포니아 새너제이에서 연례 개발자 콘퍼런스 'GTC 2026'을 개최한다. 이번 행사의 백미는 젠슨 황 CEO가 기조연설을 통해 공개할 차세대 AI 가속기 '베라 루빈(Vera Rubin)'이다. 베라 루빈은 전작인 블랙웰을 뛰어넘는 성능으로 HBM4 탑재가 필수적이다. 삼성전자와 SK하이닉스는 이번 GTC에 대규모 부스를 꾸리고 엔비디아의 차세대 칩에 들어갈 메모리 기술력을 과시한다. HBM 시장의 주도권을 쥔 SK하이닉스는 HBM3E와 HBM4를 비롯해 LPDDR, GDDR7 등 AI용 초고속 메모리 라인업을 총망라해 전시한다. 가장 주목받는 행보는 최태원 SK그룹 회장의 GTC 참석이다. 최 회장이 엔비디아 주최 행사에 직접 참석하는 것은 이번이 처음이다. 최 회장은 지난달 미국에서 젠슨 황 CEO와 '치맥 회동'을 가지며 끈끈한 파트너십을 과시한 바 있다. 이번 방문을 통해 HBM4 공급 확정은 물론 에너지와 데이터센터를 아우르는 포괄적 AI 인프라 협력 방안을 논의할 것으로 관측된다. 일각에서는 엔비디아가 베라 루빈 이후 선보일 차세대 칩 '파인만(Feynman)'에 대한 협력 논의도 오갈 것으로 보고 있다. 삼성전자는 '기술 초격차'로 승부수를 던진다. 최근 세계 최초로 HBM4 양산 출하를 시작했다고 밝힌 삼성전자는 이번 GTC에서 실제 제품 성능을 입증하는 데 주력한다. 송용호 삼성전자 DS부문 부사장(AI센터장)은 '반도체 제조와 AI의 미래'를 주제로 발표에 나서며 삼성의 제조 공정에 AI를 접목한 'AI 팩토리' 비전을 제시한다. 이번 GTC는 HBM4 공급권의 향배를 가를 분수령이 될 전망이다. HBM4는 기존 제품과 달리 로직 다이(Logic Die)에 파운드리 공정이 결합되는 '커스텀(맞춤형) 메모리' 성격이 강하다. 메모리와 파운드리, 패키징을 일괄 수행하는 '턴키(Turn-key)' 솔루션을 앞세운 삼성전자와 TSMC와의 연합 전선을 구축해 공정 신뢰성을 높인 SK하이닉스 간의 전략 대결이 치열하다. 업계 관계자는 "엔비디아가 베라 루빈을 공개하는 시점에 맞춰 메모리 파트너사들의 기술력 검증도 마무리 단계에 들어갈 것"이라며 "SK하이닉스가 굳건한 동맹을 과시하는 가운데 삼성전자가 양산 능력을 앞세워 얼마나 물량을 확보하느냐가 올해 반도체 실적의 핵심 변수"라고 분석했다. 2026년 AI 반도체 시장은 '학습'에서 '추론'으로, 범용 칩에서 전용 칩으로 빠르게 진화하고 있다. 이번 GTC 2026은 단순한 기술 컨퍼런스를 넘어 대한민국 반도체 투톱의 기술력이 글로벌 AI 생태계에서 어떤 위치를 차지할지 확인하는 리트머스 시험지가 될 것이다.
2026-03-06 07:48:34
젠슨 황, CES서 '메모리 수급' 자신감 표명
[이코노믹데일리] 인공지능(AI) 반도체 수요가 폭증하면서 글로벌 메모리 공급 부족과 램 가격 급등에 대한 우려가 커지고 있다. 업계에서는 HBM과 서버용 D램을 중심으로 이른바 'AI 메모리 슈퍼사이클'에 진입했다는 평가도 나온다. 반면 미국 라스베이거스에서 열린 CES 무대에 선 젠슨 황 엔비디아 최고경영자(CEO)는 이를 정면으로 부인하며 자신감을 드러냈다. 6일(현지시간) 젠슨 황 CEO는 미국 네바다주 라스베이거스 폰테인블루에서 열린 글로벌 가전·IT 전시회 'CES 2026'에서 기자간담회를 열고 메모리 수급 상황에 대한 질문에 자신감 있는 태도를 보였다. 젠슨 황 CEO는 "(D램에 대해) 우리는 직접 구매하는 대규모 고객사로서 공급망 계획 수립을 매우 잘 수행하고 있다"며 "우리는 HBM4의 유일한 소비자로서 이점을 누릴 수 있을 것"이라고 말했다. 최근 메모리 반도체 시장에서는 램 가격 상승세가 뚜렷하다. 시장조사 및 컨설팅 기업 트렌드포스에 따르면 공급업체의 재고가 빠르게 소진되고 있으며 출하량 확대가 웨이퍼 생산량 증가에만 의존하는 구조로 전환되면서 공급 부족 현상이 심화되고 있는 것으로 나타났다. 이에 서버용 DRAM 가격은 2026년 1분기에 전 분기 대비 60% 이상 상승할 것으로 전망되고 있다. 특히 AI 가속기에 탑재되는 HBM(고대역폭 메모리)과 서버용 고용량 D램은 구조적인 공급 부족 국면에 진입했다는 분석이다. 생성형 AI와 데이터센터 증설이 맞물리면서 수요는 급증했지만 HBM은 TSV 공정과 패키징 등 고난도 공정을 거쳐야 해 단기간에 생산능력을 확대하기 어려운 구조다. 이에 단기 가격 급등이 아닌 중장기 'AI 메모리 슈퍼사이클'의 신호로 전망되고 있다. 이처럼 메모리 가격 변동 폭이 확대되는 상황에서도 젠슨 황 CEO가 공급 우려를 차단한 것은 이미 중장기적인 선점 전략을 마련해 놓았기 때문으로 풀이된다. 엔비디아는 AI 가속기 수요 증가를 전제로 주요 메모리 업체들과 장기 공급 계약을 체결하고 차세대 제품을 공동 개발하며 사전 물량을 확보하는 방식으로 리스크를 관리해 왔다. 설계 초기 단계부터 메모리 사양을 확정해 생산 일정을 공유함으로써 사실상 '우선 배정' 구조를 만들어온 것으로 분석된다. 이 같은 자신감의 배경에는 SK하이닉스와 삼성전자 등 글로벌 메모리 기업들과의 긴밀한 협력이 자리 잡고 있다. 엔비디아는 단순한 납품 관계를 넘어 GPU와 가속기 설계 초기 단계부터 메모리 사양을 공유하고 공정 일정과 투자 계획까지 조율하는 방식으로 협력 관계를 구축해 온 것으로 알려졌다. 이는 AI 반도체 시대에 메모리와 시스템 반도체 간 경계가 허물어지며 '전략적 동맹' 수준으로 관계가 격상되고 있음으로 풀이된다. CES 개막에 앞서 화제가 된 이른바 '치맥 회동'도 이런 분위기를 상징적으로 보여준다. 젠슨 황 CEO가 메모리 공급 불안과 가격 변동성 확대에 대해 지난해 10월 주요 파트너들과 선제적으로 대응에 나선 행보로 해석된다. 젠슨 황 CEO는 "우리는 그래픽용 D램(GDDR)과 저전력 D램(LPDDR) 등의 최대 구매자라는 점에서 공급 부족 영향은 없을 것"이라며 "인공지능(AI) 공장 때문에 앞으로 세계는 더 많은 팹(반도체 생산공장)을 필요로 하게 될 것"이라고 말했다. AI 가속기 수요가 메모리 시장의 판도를 바꾸는 가운데 엔비디아를 축으로 한 글로벌 메모리 동맹이 새로운 패권 구도를 형성하고 있는 것으로 평가된다. HBM과 서버 D램을 둘러싼 주도권 경쟁은 단순 가격 문제가 아니라 AI 시대 산업 지형을 가르는 핵심 변수로 부상하고 있다.
2026-01-07 09:57:01
GPU 독주 흔든 구글 TPU…빅테크 AI 칩 선택지 변화 '마중물'
[이코노믹데일리] ※전자사전은 복잡하고 어렵게만 느껴지는 '전자'분야의 최신 기술과 산업 이슈를 쉽게 풀어드리는 코너입니다. 뉴스에선 자주 등장하지만 정작 이해하기 어려웠던 이야기들을 매주 하나의 핵심 주제로 선정해 딱딱한 전문 용어 대신 알기 쉬운 언어로 정리합니다. <편집자주> 엔비디아의 독주가 이어지던 인공지능(AI) 반도체 시장에서 구글이 던진 승부수가 큰 파장을 일으키고 있다. 구글의 자체 AI 칩 텐서처리장치(TPU)를 사용한 새 AI 모델 제미나이3가 호평을 받으며 성능을 입증했다. 다른 빅테크 AI 기업들도 TPU 사용을 검토하고 있는 것으로 알려져 AI 칩 선택지가 다양화되고 있다. 30일 업계에 따르면 구글은 자체 개발한 AI 가속기 텐서처리장치(TPU)를 앞세워 개발한 차세대 거대언어모델(LLM) 제미나이3과 이미지 생성·편집 도구 나노 바나나 프로를 선보였다. 메타·앤트로픽 같은 AI 대형 고객사들도 TPU를 테스트하고 일부 서비스에 도입하려는 움직임까지 나타나고 있다. TPU(Tensor Processing Unit)는 구글이 2016년 처음 공개한 AI 및 딥러닝 전용 반도체 칩이다. AI 연산의 핵심인 행렬(Tensor) 연산을 고속·저전력으로 처리하기 위해 구글이 자체 설계한 ASIC(Application-Specific Integrated Circuit, 주문형 반도체)다. GPU는 다양한 분야에서 쓰이며 생태계와 개발 도구가 가장 탄탄한 반면 TPU는 구글 서비스 및 제미나이 모델에 최적화돼 특정 AI 작업에서 더 빠르고 전력 효율이 우수하다. 또한 상대적으로 가격이 낮고 공급도 안정적이라는 장점이 있다. 특히 GPU 공급 부족에 따라 TPU가 호평을 받으며 신뢰도가 상승한 상황이다. 이는 GPU가 아니어도 최고 수준의 AI 모델을 만들 수 있다는 새로운 가능성을 제시하는 것으로 엔비디아가 독점해 온 시장에 선택지를 제공한 셈이다. 김록호 하나증권 연구원은 “메타가 TPU를 검토한다는 건 추론을 넘어 훈련용 칩 선택지에도 변화가 생기고 있다는 의미”라며 “엔비디아가 장악해 온 훈련 시장에서 점유율 균열 가능성이 현실화된 것으로 볼 수 있다”고 설명했다. 또한 GPU든 TPU든 공통적으로 HBM·GDDR·LPDDR 등 고대역폭 메모리를 대량으로 사용하고 있어 국내 메모리 반도체 업계에 수혜가 될 것이라는 반응이다. 삼성전자·SK하이닉스는 이 시장 점유율 70% 이상을 차지하고 있다. SK하이닉스는 이미 2026년까지 HBM 물량이 사실상 완판 상태이며 TPU 수요가 커지면 남는 신규 물량을 삼성전자가 가져갈 가능성이 높아진다. TPU를 실제 생산하는 곳은 브로드컴·TSMC 등이다. 다만 TSMC가 이미 풀가동 상태로 알려져 있어 삼성 파운드리로 일부 주문이 이동할 가능성이 거론된다. 김 연구원은 “TPU든 GPU든 HBM 의존도는 계속 높아지고 있어 전체 수요는 우상향할 것”이며 “다만 엔비디아와 SK하이닉스가 누렸던 프리미엄이 새로운 경쟁 구도에서 조정될 가능성은 염두에 둘 필요가 있다”고 분석했다.
2025-11-30 09:00:00
'AI 효율의 시대'…SK AI 서밋 2025, 최태원·곽노정이 그린 '메모리 중심 생태계'
[이코노믹데일리] 3일 오전 서울 강남구 코엑스에서 열린 ‘SK AI 서밋 2025’ 행사장은 대학생부터 반도체, AI 업계 관계자들로 북적였다. 작년에 이어 두 번째 열린 이 행사는 SK그룹이 AI 시대를 어떻게 준비하고 있는지 한눈에 보여주는 자리였다. 이날 기조연설에 나선 최태원 SK그룹 회장은 "AI는 이제 규모가 아닌 효율의 경쟁"이라며 포문을 열었다. 그는 "스케일만 갖고 싸우면 너무 많은 돈이 투입되고 비효율이 일어난다"며 "효율성을 높여 AI 양극화가 일어나지 않도록 해야한다"고 강조했다. 실제로 오픈AI는 스타게이트 프로젝트를 진행하며 월 90만장의 HBM을 요청하기도 했다. 이는 전 세계 HBM 월 생산량의 두 배에 달하는 규모다. 이외에도 많은 기업들이 SK에 메모리칩을 요구하는 상황이다. 최 회장은 "저희가 공급하지 못하면 그들이 비즈니스를 못하는 상황에 접어들 수도 있어서 수익성을 넘어 책임감을 가지는 것이 고객을 위한 길이라고 생각하고 있다. 이 문제를 지금 상당히 고민하고 있다"고 밝혔다. 곽노정 SK하이닉스 CEO는 "프로바이더를 넘어 크리에이터로 거듭나겠다"며 '풀스택 AI 메모리 크리에이터'라는 새 비전을 제시했다. "고객이 원하는 것 이상을 제공하겠다"는 의지였다. 그는 커스텀 HBM, AI-D(AI용 DRAM), AI-N(AI용 NAND) 등 구체적인 제품 로드맵을 처음 공개하며 "단순한 기술 제조업체가 아니라 미래를 설계하겠다"고 선언했다. 1층 전시관에는 SK하이닉스가 준비 중인 차세대 메모리 제품들이 전시돼 있었다. 특히 PIM(Processing-In-Memory)은 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술로 GDDR6-AiM을 CPU·GPU와 함께 사용할 경우 특정 조건에서 연산 속도가 최대 16배 이상 향상된다. 지금까지는 모든 연산을 CPU나 GPU가 담당했으나 이에 따른 비효율적인 면을 보완한 것이다. SK하이닉스가 선보이는 PIM은 연산 기능을 갖고 있다. 관계자는 "예를 들어 매트릭스 곱하기 벡터 연산을 보면 실제 데이터는 많이 가지고 있지만 연산 결과는 벡터 하나만 남습니다. LLM 같은 모델을 돌리면 매트릭스는 사실상 버려지는 셈이죠"라고 말했다. 전시 관계자는 "생성형 AI에서 뭔가를 생성할 때 굉장히 버려지는 데이터들이 많은데 PIM은 이걸 효율적으로 처리할 수 있다"며 "1기가바이트 정도 되는 용량으로 나중에 데이터센터에서 GPU와 함께 배치하면 시너지를 일으킬 것"이라고 설명했다. PIM은 아직 양산 전 단계다. 관계자는 "현재 PIM에 관심 있는 회사들이 있긴 하지만 실제 연결되려면 아직 시간이 좀 더 필요할 것 같다"며 "양산 단계까지 가려면 여러 업체들을 고려해 타임라인 등을 다 맞춰야 한다. 구체적인 시점은 답변하기 어렵다"고 설명했다. 전시관 한쪽에는 데이터센터 솔루션 부스가 마련돼 있었다. SK가 구축 중인 AI 데이터센터의 축소 모형이었다. 전시 관계자는 "쿨링부터 시작해서 전력 관리, 네트워크까지 모든 것을 SK 제품으로 구성했습니다"라고 말했다. 부스 담당자는 SK텔레콤의 네트워크 기술, SK이노베이션의 배터리·에너지 솔루션, SK하이닉스의 메모리가 어떻게 하나로 통합되는지를 설명했다. 최태원 회장이 기조연설에서 언급했던 울산 1기가급 데이터센터, 가산 블랙웰 B200 클러스터가 바로 이런 컨셉으로 구축되고 있다는 설명이다. 이처럼 구축된 AI 생태계가 있었기에 그룹의 기술력을 총체적으로 보여줄 수 있었다. 이날 최태원 회장은 “젠슨 황도 이제 개발 속도를 묻지 않는다”며 기술력에 자신감을 보였고 곽노정 CEO도 “메모리가 단순 컴포넌트에서 키 밸류 프로덕트로 위상이 높아지고 있다”고 강조했다.
2025-11-04 18:01:33
SEDEX 2025, 삼성·하이닉스 나란히 HBM4 공개…AI 메모리 각축전
[이코노믹데일리] 삼성전자와 SK하이닉스가 차세대 고대역폭 메모리(HBM) ‘HBM4’를 나란히 공개했다. 인공지능(AI) 수요 확대 속에서 HBM 시장이 빠르게 성장하고 있는 가운데 양사는 기술력을 전면에 내세우며 관람객의 관심을 끌었다. 23일 방문한 ‘SEDEX(반도체 대전) 2025’에는 삼성전자와 SK하이닉스를 비롯한 장비·소재 기업 등 230여 개사가 참가했다. 서울 삼성동 코엑스에서 진행 중인 SEDEX 2025는 메모리·시스템반도체부터 소재·부품·장비, 센서, 설비 분야까지 아우르는 국내 최대 규모 반도체 전문 전시회다. 한국반도체산업협회(KSIA)가 주최한다. 이날 삼성전자는 첫 HBM4 실물을 공개하며 속도로 승부수를 던졌다. 반면 SK하이닉스는 16단 HBM4의 완성도를 내세웠다. 이번 전시에는 230여 개사가 참가했으며 많은 관람객의 발걸음은 단연 핵심 부품인 HBM으로 향했다. 삼성전자는 이번 SEDEX2025에서 HBM4 실물을 국내 최초로 공개했다. 이번 제품은 11Gbps(기가비트/초)의 I/O 속도와 2.8TB/s(테라바이트/초)의 대역폭, 36GB 용량을 구현했다. 이는 국제반도체표준협의회(JEDEC) 기준(8Gbps, 2.0TB/s)을 넘어서는 수치다. 삼성전자는 기존 HBM3E에서 메모리 공정을 적용했으나 HBM4부터는 로직 공정을 활용해 전력 효율과 안정성을 동시에 개선했다. 현재 삼성전자는 HBM4 엔지니어링 샘플(ES)을 엔비디아에 공급해 퀄리피케이션 테스트를 진행 중이다. 업계에서는 이번 제품이 발열 문제를 해소한 만큼 엔비디아 차세대 AI 가속기 루빈의 주요 공급 후보로 꼽힌다. SK하이닉스는 16단 HBM4 실물을 공개했다. 최대 용량 48GB, I/O 속도 8Gbps, 대역폭 2.0TB/s 등 JEDEC 표준 사양을 제시하며 안정성과 양산 완성도를 강조했다. 표준 스펙을 택하며 양산 효율과 발열 안정성을 강화한 완성형 HBM 전략을 지향한 것이다. 하이닉스는 이번 전시회에서 HBM 외에도 차세대 메모리 포트폴리오를 대거 공개했다. AI 서버와 노트북용으로 각각 설계된 SoCAMM2(서버용 모듈), LPCAMM2(저전력 D램 모듈)를 비롯해, Z-UFS 4.1(차세대 모바일 스토리지)와 GDDR7(그래픽용 D램) 등도 선보였다. 현재 SK하이닉스는 엔비디아 H200·B200 GPU용 HBM3E를 주력 공급하며 시장 점유율 50% 이상을 유지 중이다. 업계는 HBM4 세대에서도 이 리더십이 이어질 것으로 보고 있다. 업계 관계자는 "엔비디아와 먼저 협업한 SK하이닉스가 초기 시장에서 조금 더 유리한 위치를 점할 것으로 보인다"면서도 "삼성전자 역시 속도와 성능을 내세워 공급 가능성을 높이고 있으며 엔비디아는 가격과 리스크 분산 차원에서 여러 공급처에서 물량을 확보하려 할 것"이라고 설명했다. 한편 SEDEX 2025는 오는 24일까지 진행된다.
2025-10-23 18:12:13
처음
이전
1
다음
끝
많이 본 뉴스
1
유류할증료 '6단계→18단계' 한 달 만에 폭등…전쟁발 유가 급등에 항공·여행시장 직격탄
2
면세점서 성수동으로…외국인 관광객 지갑 여는 서울의 새 공식
3
'미다스의 손' 곽재선, KGM 흑자 이어 케이카도 살릴까…유통 확장 시험대
4
"딸 지키려던 엄마의 비극"… 12시간 폭행 끝 숨지게 한 사위, 시신 유기까지
5
'아크로 드 서초' 이름 바뀐다…DL이앤씨, '아크로 서초' 상표 출원
6
[현장] 낙상·호흡 이상까지 감지…동탄시티병원, AI 병상 시스템 '씽크' 공개
7
GLP-1 격전지 된 한국…JW중외제약 가세에 경쟁 '재점화'
8
유가·환율 동반 상승에 항공권 '출렁'…유류할증료 한 달 새 최대 3배 급등
영상
Youtube 바로가기
오피니언
텍스트 너머의 시대, 미디어의 새 판 (上)