设为首页
收藏本站
切换到宽版
门户
Portal
社区
BBS
站长
开发
运维
资源
游戏
产品
登录
立即注册
随客社区
»
社区
›
社区协作
›
新闻资讯
›
谷歌推出第八代TPU:最高提升2.8倍 训练推理首次拆分 ...
返回列表
发布新帖
查看:
6
|
回复:
0
[人工智能]
谷歌推出第八代TPU:最高提升2.8倍 训练推理首次拆分
JQR1
JQR1
当前离线
UID
9
星火
贡献
奖金
发表于
2 小时前
|
查看全部
|
阅读模式
这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!
您需要
登录
才可以下载或查看,没有账号?
立即注册
×
本帖最后由 JQR1 于 2026-4-23 15:26 编辑
4月23日消息,谷歌云2026 Next大会召开,谷歌正式发布了第八代张量处理器(TPU)。这是谷歌史上首次将AI训练与推理任务拆分至两款独立芯片——专为模型训练设计的TPU 8t与专为推理优化的TPU 8i,标志着其AI硬件战略的重大调整。
这一战略转变的根本原因在于AI计算负载的日益分化。谷歌AI与基础设施高级副总裁兼首席技术官Amin Vahdat在官方博客中指出:“随着AI智能体的兴起,我们确信业界将受益于针对训练和推理需求分别进行专门优化的芯片。”
具体而言,训练任务追求极致的吞吐量与规模扩展能力,需要芯片具备最高的计算密度和内存带宽,以在数周甚至数月内处理万亿级参数。
而推理任务则对延迟和并发更为敏感——当数百万个AI智能体同时运行时,响应速度至关重要,而对峰值算力的要求相对较低。
TPU 8t由谷歌与博通共同设计,是谷歌为超大规模AI模型训练打造的旗舰芯片。单个超级计算节点最多可集成9600块TPU 8t芯片,配备2 PB高带宽内存,每Pod计算性能达121 exaflops(FP4精度),较上一代Ironwood提升约3倍,同等价格下性能提升2.8倍。通过JAX与Pathways框架,可将分布式训练扩展至单一集群超过100万块芯片。
TPU 8i首次由谷歌与联发科合作设计,专注于AI推理场景,旨在消除“等待室效应”——即用户请求被有意排队或延迟以实现硬件利用率最大化的情况。单个Pod可扩展至1152块芯片,提供11.6 exaflops FP8计算性能,较Ironwood同等价格下性能提升80%,每瓦性能较上一代提升117%。
两款第八代TPU芯片均搭载了谷歌自研的Arm架构Axion CPU作为主控,彻底解决数据预处理延迟导致的主机算力瓶颈。芯片采用台积电2nm制程工艺制造,目标在2027年底量产,并由谷歌第四代液冷技术支持散热。
在软件生态方面,第八代TPU支持JAX、PyTorch、Keras及vLLM等主流框架,原生PyTorch支持现已进入预览阶段,用户可直接迁移模型而无需修改代码。
除了硬件,谷歌还发布了Gemini Enterprise Agent Platform及一系列AI代理工具。新增的Memory Bank和Memory Profile功能,可以帮助AI代理记住与用户的过往互动;Agent Simulation则能让开发者在工具发布前测试其运行情况。谷歌的核心目标是帮助企业实现任务自动化,让AI代理真正成为企业的“数字员工”。
AI代理是当前AI应用的重要方向。与传统的聊天机器人不同,AI代理可以自主完成复杂任务,比如预订行程、管理日程、处理邮件等。谷歌的这一系列工具将大大降低企业部署AI代理的门槛。
来源:
快科技
回复
举报
返回列表
发布新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
快速入口
社区门户
社区首页
随客云计算
重要文档
社区规则
官方公告
关于我们
团队介绍
产品合集
联系我们
532352
028-67879779
tech@isuike.com
Copyright © 2001-2026
Suike Tech
All Rights Reserved.
随客交流社区 (备案号:
津ICP备19010126号
)
|
Processed in 0.109798 second(s), 10 queries , Gzip On, MemCached On.
关灯
在本版发帖
返回顶部
快速回复
返回顶部
返回列表