[뉴스스페이스=윤슬 기자] 구글이 AI 추론 시대에 최적화한 7세대 텐서처리장치(TPU) ‘아이언우드(Ironwood)’를 전 세계 클라우드 고객에 공식 출시하며 엔비디아 독주에 도전장을 내밀었다.
로이터, CNBC, Trendforce, The Register, Tom's Hardware에 따르면, 구글은 2025년 11월 6일(현지시간), ‘아이언우드’가 기존 6세대 ‘트릴륨(Trillium)’ 대비 4배, 2023년 출시된 5세대 대비 최대 10배 성능을 제공한다고 밝혔다.
아이언우드의 주요 제원과 차별점
아이언우드는 행렬 연산·강화학습·대용량·저지연 AI 추론 등 최신 대형 AI 모델 운영에 특화된 설계를 내세운다. 칩 한 개는 4.6 PFLOPS(FP8 기준)의 연산력을 갖추며, 192GB HBM3e 메모리(대역폭 7.4TB/s)와 9.6Tbps의 초고속 인터커넥트(ICL) 네트워크로 최대 9216개 칩을 하나의 슈퍼팟(Superpod)으로 연결할 수 있다.
이는 엔비디아 최신 ‘B200’(4.5 PFLOPS, 192GB, 8TB/s)과 비슷하거나 일부 항목에서는 앞서며, 대규모 모델 학습·추론 환경에선 효율·연산·확장성에서 획기적 진전을 이뤘다는 평가다.
성능 향상뿐 아니라 에너지 효율도 뛰어나다. 트릴륨 대비 와트 당 연산 성능이 2배, 메모리 용량은 6배, 데이터 접근 속도는 4.5배 향상됐다. 추가로, 지연(latency)을 최대 60% 줄이고, 운영 비용도 30% 절감하는 등 실사용 환경에서의 혁신을 강조했다.
엔비디아와의 경쟁 구도
엔비디아의 GPU는 AI 반도체 시장에서 주류를 이루고 있으나, 구글은 MAXTEXT 등 최신 프레임워크 지원, 저비용·저지연 대용량 추론을 바탕으로 ‘특정 환경에선 아이언우드가 더 낫다’는 시장 메시지를 적극 확산 중이다. 실제로 초거대모델, LLM, AI 챗봇 등에서 엔비디아 H100, Blackwell 등이 범용성과 확장성에서 여전히 강점을 보이나, 구글은 ‘초저지연·일관된 성능·구글 클라우드와의 깊은 통합’이라는 차별성을 제시한다.
주요 고객 및 수요 확대
AI 챗봇 'Claude'를 운영하는 앤트로픽(Anthropic)은 구글과 전략적 파트너십을 통해 최대 100만개의 TPU 사용권을 확보, 수년간 수십억 달러 규모의 계약을 체결했다. 이외에도 Lightricks, EssentialAI, Google 자체의 ‘Gemini’, Veo, Imagen 등 다양한 초대형 모델이 이미 아이언우드 인프라에서 운영되고 있다.
실제 앤트로픽의 관계자는 “고성능 추론과 대규모 학습을 동시에 요구하는 AI 개발에 최적화된 인프라”라며 “구글 TPU 체계를 통해 대량의 연산 자원을 안정적으로 공급받는다”고 밝혔다.
글로벌 반도체 전쟁 속 구글의 전략
구글은 10년 이상의 TPU 개발 경험을 바탕으로 자체 인공지능 중심 맞춤형 반도체 분야에서 엔비디아, 아마존, 마이크로소프트, 메타 등과의 경쟁을 심화시키고 있다. 구글은 “클라우드 고객을 대상으로 가격대비 성능, 유연성, 확장성 등에서 경쟁사 대비 장점을 제시하고 대규모 AI 개발 수요를 흡수하겠다”고 밝혔다.
기술적 관점에서 아이언우드는 FP8 정밀도 연산, 대용량 HBM3e 지원, 네트워크 트래픽 분산, 99.999% 가동률의 액체냉각 시스템 등 데이터센터급 안정성과 성능을 동시에 확보했다는 점이 특징이다.
아이언우드의 등장은 엔비디아 중심의 AI반도체 패권 구도에 균열을 내는 한편, 추론 특화 AI 인프라 시장의 경쟁을 한층 가속화할 전망이다. LLM, 생성 AI 등 최신 모델들이 요구하는 초고속·대규모 연산환경에서 구글의 공격적 행보가 시장에 어떤 파장을 미칠지 주목된다.























































