4月10日消息,在谷歌云Next大会上,谷歌发布第七代TPU芯片Ironwood。谷歌机器学习、系统和云AI副总裁兼总经理Amin Vahdat称,Ironwood是谷歌迄今为止最强大、最节能的TPU,专为支持思考、推理类模型的大规模应用而设计。
芯片强在哪?
每块Ironwood芯片的峰值算力为4614 TeraFLOPS(第六代TPU芯片Trillium的5倍),内存高达192GB(Trillium的6倍);HBM带宽达到7.2 Tbps(Trillium的4.5倍);其每瓦峰值算力为29.3 TeraFLOPS,是Trillium的2倍多。
通过芯片间互连(ICI)网络,Ironwood实现1.2 Tbps的芯片间双向带宽,最高可扩展至9216个液冷芯片组成的Pod,总算力达42.5 ExaFLOPS,是目前世界上最大超算El Capitan算力的24倍多,足以支撑超大规模语言模型的实时推理。
相较于前代 TPU v6e,Ironwood 的每瓦性能提升 100%,运行成本降低 30%,配合液冷技术,这将直接解决数据中心能耗瓶颈。
谷歌表示,其芯片为谷歌云客户提供两种尺寸(256配置和9216配置),开发者还可以利用谷歌的Pathways软件堆栈,管理数万个Ironwood TPU的综合计算能力。全面推出的Cluster Director允许用户部署和管理具有计算、存储和网络功能的大型加速虚拟机集群。这将极大提升了客户的数据管理能力。
迎来推理时代?
现有的AI主要是提供实时信息供人类解读,是高度依赖人的响应式AI;谷歌称,Ironwood通过架构优化,足以支持 AI 模型主动检索数据、生成洞见并解释逻辑,而这是一种主动生成解读的AI模型,因此,可以预估AI将迎来“推理时代”。
谷歌称,Ironwood满足了思考模型复杂的计算和通信需求,可以应用于包括大语言模型(LLM)、混合专家模型(MoE)和高级推理任务等这些需要大规模并行处理和高效的内存访问的场景。
但如此思维模型的计算需求远超市面上单个芯片的容量,因此谷歌还为谷Ironwood TPU配备了低延迟、高带宽的ICI网络,以支持全TPU Pod规模的协调同步通信。
大会现场,谷歌还宣布,他们将很快推出A4X和A4 VMs(虚拟机),由英伟达GB200 NVL72和B200 Blackwell GPU提供算力支持,谷歌云也将成为首批提供Vera Rubin GPU的云服务厂商。
谷歌DeepMind的“Ironwood”项目(或模型)的发布,意味着谷歌在AI领域的战略布局和技术突破进入新阶段。尽管目前官方披露的信息有限,但若Ironwood作为谷歌的新型AI模型,它可能凭借着多模态能力升级、算力优化、自主Agent能力,降低对高端GPU的依赖,实现更复杂的任务自动化,直接对标OpenAI的GPT-5、Anthropic的Claude 4等下一代模型,争夺AI技术制高点。
微信扫一扫,一键转发