e경제일보 - 정확한 뉴스와 깊이 있는 분석
금융
산업
생활경제
IT
건설
피플
국제
이슈
문화
딥인사이트
검색
패밀리 사이트
아주일보
베트남
회원서비스
로그인
회원가입
지면보기
네이버블로그
2026.03.03 화요일
흐림
서울 6˚C
흐림
부산 7˚C
흐림
대구 7˚C
맑음
인천 6˚C
흐림
광주 6˚C
흐림
대전 5˚C
흐림
울산 6˚C
흐림
강릉 3˚C
흐림
제주 9˚C
검색
검색 버튼
검색
'트레이니엄'
검색결과
기간검색
1주일
1개월
6개월
직접입력
시작 날짜
~
마지막 날짜
검색영역
제목
내용
제목+내용
키워드
기자명
전체
검색어
검색
검색
검색결과 총
5
건
오픈AI, 아마존 '알렉사'에 뇌 이식한다... 맞춤형 AI 모델 개발 착수
[이코노믹데일리] 챗GPT 개발사 오픈AI가 아마존의 음성 비서 '알렉사(Alexa)' 등을 구동할 맞춤형 인공지능(AI) 모델 개발에 나섰다. 마이크로소프트(MS)와의 '혈맹' 관계가 느슨해진 틈을 타 자금 확보가 시급한 오픈AI와 자체 모델 경쟁력 확보에 난항을 겪던 아마존의 이해관계가 맞아떨어진 결과다. 5일(한국시간) 디인포메이션 등 외신에 따르면 오픈AI는 자체 연구원과 엔지니어를 투입해 아마존 AI 제품에 탑재될 전용 모델을 개발하는 협약을 논의 중이다. 핵심은 아마존의 음성 인식 플랫폼 알렉사의 지능을 오픈AI 기술로 업그레이드하는 것이다. 아마존은 그간 자체 모델 '노바(Nova)' 등을 개발해왔으나 오픈AI나 앤트로픽 등 선두 주자에 비해 성능과 신뢰성 면에서 뒤처진다는 평가를 받아왔다. 이번 협력은 양사의 절박함이 빚어낸 '생존형 동맹'으로 분석된다. 오픈AI는 2030년대 초반까지 클라우드 공급 업체에 지불해야 할 약정액만 6000억달러(약 870조원)에 달한다. 천문학적인 인프라 비용을 감당하기 위해선 MS 외에 새로운 '전주(錢主)'가 필수적이다. 아마존은 현재 오픈AI에 최대 500억달러(약 72조원) 규모의 지분 투자를 검토하고 있다. 아마존 입장에서는 'AI 지각생' 꼬리표를 떼기 위한 승부수다. 아마존은 앤트로픽에 40억달러를 투자하며 연합 전선을 구축했으나, 자사 서비스인 알렉사의 고도화에는 여전히 어려움을 겪어왔다. 오픈AI의 검증된 기술력을 수혈받아 AI 스피커 등 하드웨어 시장에서의 지배력을 유지하겠다는 전략이다. 업계는 이번 논의를 오픈AI의 '탈(脫) MS' 행보가 가시화된 신호탄으로 해석한다. 지난해 10월 오픈AI의 영리 기업 전환 추진 이후 MS와의 독점적 관계는 옅어지고 있다. 실제로 오픈AI는 지난해 11월 아마존웹서비스(AWS)와 380억달러 규모의 서버 임대 계약을 맺은 데 이어, 아마존의 자체 AI 칩 '트레이니엄' 사용까지 검토 중이다. 오픈AI가 아마존에 맞춤형 모델을 공급할 경우 기업용(B2B) AI 시장의 판도는 급변할 전망이다. 클라우드 1위 사업자 아마존과 AI 1위 기업 오픈AI의 결합은 막강한 파급력을 가질 수밖에 없다. 다만 우려의 목소리도 나온다. 오픈AI가 특정 기업을 위한 커스텀 모델 개발에 인력을 투입할 경우, 구글이나 앤트로픽과 경쟁해야 할 차세대 파운데이션 모델(GPT-6 등) 개발 동력이 분산될 수 있다는 지적이다. 업계 관계자는 "오픈AI는 자금 수혈을 위해, 아마존은 서비스 경쟁력을 위해 서로의 손을 잡았다"며 "이번 협력이 성사되면 구글, MS, 아마존, 메타 등이 얽히고설킨 AI 합종연횡이 더욱 복잡해질 것"이라고 내다봤다.
2026-02-05 07:59:31
SK하이닉스, MS '마이아200'에 HBM 독점 공급...'탈 엔비디아' 선언한 빅테크
[이코노믹데일리] SK하이닉스가 마이크로소프트(MS)의 자체 개발 인공지능(AI) 가속기 '마이아 200'에 고대역폭메모리(HBM)를 단독 공급하는 것으로 확인됐다. 엔비디아에 이어 MS라는 거대 고객사를 독점적으로 확보함으로써 SK하이닉스는 AI 메모리 시장에서의 지배력을 다시 한번 입증했다. 반면 삼성전자(대표 한종희)는 구글 등 다른 빅테크와의 협력을 강화하고 차세대 HBM4 시장 선점을 노리며 맹추격에 나섰다. SK하이닉스는 MS가 26일(현지시간) 공개한 차세대 AI 칩 '마이아 200'에 5세대 HBM인 'HBM3E'를 단독 공급한다. 마이아 200은 대만 TSMC의 3나노 공정으로 제작된 주문형 반도체(ASIC)로 12단 HBM3E 6개를 탑재해 총 216GB의 메모리 용량을 갖췄다. MS는 이 칩을 미국 아이오와주와 애리조나주 데이터센터에 배치하며 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 작업에 착수했다. 이번 공급은 단순한 거래 이상의 의미를 갖는다. 글로벌 빅테크 기업들이 비용 절감과 서비스 최적화를 위해 '탈(脫) 엔비디아'를 외치며 자체 칩 개발에 속도를 내고 있기 때문이다. MS뿐만 아니라 구글은 7세대 텐서처리장치(TPU) '아이언우드'를, 아마존웹서비스(AWS)는 3세대 '트레이니엄'을 잇달아 선보이며 AI 반도체 시장을 다변화하고 있다. 이러한 흐름은 HBM 제조사에 새로운 기회다. 엔비디아 GPU에 집중됐던 HBM 수요가 빅테크의 자체 칩(ASIC)으로 분산되면서 시장 규모 자체가 폭발적으로 성장하고 있다. 특히 빅테크들은 범용 GPU보다 전력 효율이 높은 맞춤형 칩을 선호하는데 이를 구동하기 위해서는 고성능 HBM이 필수적이다. SK하이닉스가 엔비디아 공급망을 장악한 데 이어 MS 물량까지 독식한 것은 메모리 미세공정과 수율 관리 능력에서 경쟁사를 압도했기 때문으로 풀이된다. ◆ 삼성 vs SK, 'ASIC 동맹'과 'HBM4'로 진검승부 삼성전자는 구글과의 동맹을 강화하며 반격에 나섰다. 업계에 따르면 삼성전자는 구글의 TPU와 브로드컴 칩에 탑재되는 HBM 물량의 상당 부분을 책임지고 있는 것으로 알려졌다. 엔비디아와 MS 진영을 선점한 SK하이닉스에 맞서 구글·브로드컴 진영을 확보해 점유율 격차를 좁히겠다는 전략이다. 승부처는 6세대 제품인 'HBM4'다. HBM4는 메모리에 연산 기능을 더하는 등 기술적 난도가 높아 시장 판도를 뒤집을 게임체인저로 꼽힌다. 삼성전자는 최근 엔비디아와 AMD의 HBM4 품질 테스트를 통과해 다음 달 정식 납품을 앞두고 있는 것으로 전해진다. 이는 차세대 시장에서만큼은 주도권을 놓치지 않겠다는 삼성의 의지가 반영된 결과다. SK하이닉스 역시 지난 9월부터 HBM4 양산 체제를 구축하고 엔비디아와 최적화 작업을 진행 중이다. 업계 관계자는 "HBM3E까지는 SK하이닉스의 독주 체제였으나 빅테크의 자체 칩 경쟁이 본격화되고 HBM4로 기술 세대가 넘어가면서 삼성전자의 추격이 거세지고 있다"며 "향후 HBM 시장은 엔비디아 공급률뿐만 아니라 얼마나 다양한 빅테크 고객사를 확보하느냐에 따라 승패가 갈릴 것"이라고 전망했다.
2026-01-27 15:09:02
아마존, AI 모델·칩 조직 통합… "유통사 넘어 AI 개발사로 도약"
[이코노믹데일리] 세계 최대 클라우드 기업 아마존이 인공지능(AI) 모델 개발 조직과 자체 칩 개발 조직을 전격 통합하며 AI 시장 판도 흔들기에 나섰다. 이는 외부 모델을 클라우드에 얹어 파는 단순 유통 역할을 넘어 자체 모델과 최적화된 반도체를 결합한 ‘AI 개발사’로 체질을 완전히 바꾸겠다는 전략적 결단이다. 앤디 재시 아마존 CEO는 17일(현지시간) 사내 공지를 통해 범용인공지능(AGI) 팀과 칩 개발 팀을 통합한다고 발표했다. 통합 조직의 수장은 아마존웹서비스(AWS)에서 클라우드 인프라 부문을 총괄해 온 피터 드산티스 부사장이 맡아 재시 CEO에게 직접 보고하는 체계를 갖췄다. 이번 조직 개편의 핵심은 아마존의 자체 거대언어모델(LLM)인 ‘노바(Nova)’와 자체 AI 반도체 ‘트레이니엄(Trainium)’ 간의 기술적 최적화다. 그동안 아마존은 AWS를 통해 오픈AI나 앤트로픽 등 타사 모델을 기업 고객에게 제공하는 데 집중해 왔다. 그러나 이번 통합을 기점으로 소프트웨어(모델)와 하드웨어(칩)를 긴밀히 결합해 성능과 비용 효율을 극대화한 ‘아마존표 AI’ 생태계를 구축하겠다는 의지를 분명히 했다. 재시 CEO는 “아마존이 개발한 일부 신기술이 장기적 잠재력을 극대화할 수 있는 변곡점에 와 있다”며 “노바2 모델 출시와 맞춤형 반도체의 급성장이 맞물린 지금이 모델과 칩 그리고 클라우드 인프라 전반을 최적화할 적기”라고 설명했다. 인프라 전문가인 드산티스 부사장을 수장으로 앉힌 것 역시 연구 단계를 넘어 실제 기업 현장에 적용 가능한 상용화 기술 확보에 방점을 찍은 인사로 풀이된다. 조직 통합에 따른 인적 쇄신도 이뤄졌다. 기존 AGI 팀을 이끌며 노바 개발을 주도했던 로히트 프라사드 부사장은 연말 회사를 떠나며 로봇공학자이자 AI 연구자인 피터 아벨이 프론티어 모델 연구팀을 맡게 된다. 또한 통합 조직에는 양자컴퓨팅 팀도 포함되어 현재 컴퓨팅의 한계를 뛰어넘는 차세대 연산 기술 확보에도 속도를 낼 전망이다. 한편 아마존은 자체 기술 강화와 동시에 외부 협력도 확대하고 있다. 블룸버그 통신 등 외신에 따르면 아마존은 오픈AI에 100억 달러(약 15조원) 이상을 투자하는 방안을 협상 중이다. 이는 자체 모델 개발과 외부 파트너십 확장을 병행하는 ‘투트랙 전략’으로 AI 패권 경쟁에서 우위를 점하려는 포석으로 해석된다.
2025-12-18 08:21:11
AWS '트레이니엄3' 공개에도 시장 반응 '싸늘'… "엔비디아 대체하기엔 역부족"
[이코노믹데일리] 세계 최대 클라우드 서비스 기업(CSP)인 아마존웹서비스(AWS)가 엔비디아의 독주를 막기 위해 자체 개발한 차세대 인공지능(AI) 칩 ‘트레이니엄3(Trainium3)’를 공개했으나 시장의 반응은 냉담하다. 전작 대비 효율이 좋아졌다는 주장 외에 객관적인 성능 지표를 공개하지 않아 경쟁사인 구글이나 엔비디아의 최신 칩과 비교해 기술적 우위를 증명하지 못했다는 평가가 지배적이다. AWS는 지난 2일(현지시각) 미국 라스베이거스에서 개막한 연례 기술 콘퍼런스 ‘리인벤트(re:Invent) 2025’에서 자사의 최신 AI 학습용 칩 ‘트레이니엄3’를 전격 공개했다. 맷 가먼 AWS 최고경영자(CEO)는 기조연설을 통해 “트레이니엄3는 전작인 트레이니엄2 대비 컴퓨팅 성능을 4배 이상 끌어올렸고 에너지 소비량은 40%가량 낮췄다”며 “운영 비용을 최대 50% 절감할 수 있는 효율적인 칩”이라고 강조했다. 이는 엔비디아 그래픽처리장치(GPU)에 대한 높은 의존도를 낮추고 비용 효율성을 앞세워 자체 하드웨어 생태계를 확장하겠다는 전략으로 풀이된다. 하지만 업계 전문가들은 AWS의 발표가 ‘알맹이 없는 선언’에 불과하다고 지적한다. AI 칩의 성능을 가늠하는 핵심 지표인 ‘플롭스(FLOPS, 초당 부동소수점 연산 횟수)’나 대규모언어모델(LLM) 구동 시의 벤치마크 점수를 전혀 공개하지 않았기 때문이다. 최근 구글이 자체 칩인 텐서처리장치(TPU) 최신 버전을 공개하며 자사의 AI 모델 ‘제미나이’를 학습시킬 때의 성능, 전력 효율, 속도 등을 구체적인 수치로 제시한 것과는 대조적인 행보다. 특히 엔비디아의 주력 제품군인 H100, H200, GB200 등과의 직접적인 비교 수치가 빠져 있다는 점이 의구심을 키우고 있다. AWS가 내세운 ‘전작 대비 4배 성능 향상’은 자사 제품 간의 비교일 뿐 현재 AI 칩 시장의 표준으로 자리 잡은 엔비디아 GPU와 견줘 어느 정도의 경쟁력을 갖췄는지 판단하기 어렵다. 전작인 트레이니엄2 역시 가성비 모델로 포지셔닝됐을 뿐 절대적인 성능 면에서는 GPU에 크게 미치지 못했다는 점을 고려하면 이번 신제품 역시 고성능 AI 학습 시장의 판도를 바꾸기에는 역부족일 것이라는 분석이 나온다. 대규모 AI 인프라 구축의 핵심인 ‘클러스터링’ 기술에 대해서도 우려가 제기된다. AWS는 트레이니엄3를 통해 최대 10만 개 규모의 칩 클러스터를 구성할 수 있다고 발표했다. 그러나 수만 개의 칩을 하나처럼 연결해 연산할 때 발생하는 데이터 병목 현상과 동기화 문제를 어떻게 해결했는지에 대한 기술적 설명은 부재했다. 10만 개의 칩을 물리적으로 연결하더라도 통신 속도와 효율이 뒷받침되지 않으면 실제 학습 성능은 기대에 미치지 못할 수 있다. 데이터센터 운영 비용의 핵심인 발열 관리(Thermal Throttling) 데이터가 빠진 점도 약점으로 꼽힌다. AWS는 전력 효율성을 강조했으나 실제 고부하 작업 시 칩의 발열을 제어하는 능력이나 이에 따른 실전 운영 데이터는 제시하지 않았다. 이는 엔비디아나 구글이 칩 설계 단계부터 발열 제어와 전성비(전력 대비 성능) 최적화에 사활을 걸고 구체적인 데이터를 공개하는 것과 비교해 신뢰도를 떨어뜨리는 요인이다. 소프트웨어 최적화 측면에서도 경쟁력이 모호하다는 지적이다. 구글의 경우 자사 TPU를 AI 모델 ‘제미나이’에 최적화해 학습 성능을 극대화한 반면 AWS의 트레이니엄 시리즈는 범용성을 지향하다 보니 특정 고성능 모델에서의 최적화 수준이 상대적으로 낮다. GPU 대신 트레이니엄을 사용할 경우 대규모 학습 모델에서 AI 서비스 품질 저하가 발생할 수 있다는 우려가 나오는 이유다. 클라우드 업계의 한 관계자는 “이번에 공개된 트레이니엄3의 연산 능력은 엔비디아의 현역 최신 모델인 블랙웰(Blackwell) 시리즈는커녕 이전 세대인 H100보다도 낮은 수준으로 추정된다”며 “클라우드 환경에 특화된 설계로 비용 절감 효과는 있겠지만 고도의 연산 능력이 필요한 첨단 AI 학습 영역에서 엔비디아 GPU를 대체하기는 어려울 것”이라고 평가했다.
2025-12-04 08:35:31
AWS 칼야나라만 부사장, "SK와의 울산 AI 데이터센터 협력, 韓 AI 혁신 분수령 될 것"
[이코노믹데일리] "단순 인프라 구축 넘어섰다"…AWS 임원이 밝힌 '울산 AI 데이터센터'의 진짜 의미 아마존웹서비스(AWS)의 인프라 총괄 부사장이 SK그룹과 울산에 구축하는 인공지능(AI) 전용 데이터센터가 “한국 AI 혁신의 분수령이 될 것”이라며 강력한 기대감을 표했다. 프라사드 칼야나라만 AWS 인프라 서비스 부사장은 4일 SK텔레콤 뉴스룸 인터뷰를 통해 “SK그룹과 AWS는 단순히 인프라를 구축하는 것이 아니라 한국의 AI 혁신과 AI 리더십의 새로운 장을 여는 기반을 마련하고 있다”고 밝혔다. SK텔레콤은 지난 6월, AWS 및 그룹 계열사들과 함께 2027년 가동을 목표로 국내 최대 규모의 하이퍼스케일 AI 데이터센터를 울산에 구축한다고 발표한 바 있다. 칼야나라만 부사장은 이번 협력이 단순한 인프라 사업을 넘어 한국이 글로벌 AI 선도국으로 도약하는 중요한 전환점이 될 것이라고 평가했다. 그는 울산 데이터센터 내부에 조성될 ‘AWS AI 존’을 통해 한국 기업들이 현지에서 글로벌 최고 수준의 AI 인프라를 활용할 수 있게 될 것이라고 강조했다. 특히 그는 △AI 최적화 컴퓨팅 시스템 △초고밀도 랙 구성 △공랭·수랭 하이브리드 냉각 시스템 △초저지연 네트워크 등 AWS의 최첨단 기술이 울산 데이터센터에 그대로 적용될 것임을 밝혔다. 이를 통해 국내에서 발생하는 AI 관련 작업을 직접 처리함으로써 데이터 주권을 강화하고 글로벌 AI 경쟁력을 높일 수 있다는 설명이다. AWS는 자체 설계한 AI 칩 ‘트레이니엄·인퍼런시아’와 생성형 AI 플랫폼 ‘아마존 베드록’ 등을 통해 이미 AI 혁신의 핵심 인프라로 자리매김하고 있다. 칼야나라만 부사장은 “최근 발표한 칩은 이전 세대 대비 에너지 효율이 3배 향상됐다”며 AI 반도체뿐만 아니라 냉각, 전력, 네트워크 등 인프라 전반에서 혁신을 지속하고 있다고 설명했다. 그는 “향후 SK그룹과 AWS는 컴퓨팅, 스토리지, 데이터베이스, 엣지 컴퓨팅 역량을 통해 빠르게 성장하는 생성형 AI 수요를 맞출 수 있도록 광범위하고 전략적인 협력을 추진할 것”이라며 “이번 협력이 한국 내 AI 생태계 발전에 중추적 역할을 수행할 것”이라고 덧붙였다.
2025-09-04 10:25:00
처음
이전
1
다음
끝
많이 본 뉴스
1
19년 만에 빗장 풀린 '한국 지도'…구글에 조건부 반출 허가, 네이버·카카오 '비상'
2
통신 3사, 갤럭시 S26 사전예약 돌입…보조금 넘어 'AI·구독·라이프 혜택' 제공
3
[KT, 이제는 정상화의 '골든타임' ①] 사법 리스크 털어낸 박윤영호(號)… 멈춰선 KT 시계 다시 돌린다
4
"통신망이 곧 컴퓨터다"…엔비디아 손잡은 SKT, 효율 택한 KT·LGU+와 '다른 길'
5
"안전 확보 최우선"…삼성전자, 이란 사태에 현지 임직원 대피
6
금감원, 금융보안 통합관제시스템 본격 가동
7
KAIST 총장 선임 불발, 사상 초유의 '전원 부적격' 탈락 '충격'
8
KB국민·신한카드 등 주요 카드사 연체율 ↓…카드업계 건전성 개선 흐름
영상
Youtube 바로가기
오피니언
[편집인 칼럼] 단종 유배지 청령포의 봄, '이벤트 행정' 아닌 '신뢰 행정'이 지킨다