第97章 芯片用于自家产品,性能飙升!(2/3)
比预想的要顺利得多!
目标二:赋能核心ai应用!
当第一批搭载了“启明一号”的服务器集群在数据中心投入运行后,效果立竿见影!
“趣拍”\/tick tock 后台:
ai推荐引擎的响应速度提升了30!用户刷视频的卡顿感明显减少,体验更流畅!后台能够支撑更复杂的推荐模型,个性化推送更加精准,用户粘性进一步增强!
“净网ai卫士”内容审核系统的处理速度提升了近50!对视频、音频、文字的多模态分析更加高效精准,审核效率大幅提升,运营成本显着下降!
“未来课堂”\/“智学星”后台:
“ai家教”的实时交互延迟降低了40!与ai老师的对话、解题互动更加自然流畅!
后台用于更新和优化ai教学模型的训练时间(虽然启明一号主要针对推理,但其架构对特定训练任务也有加速效果,结合之前的神经元网络加速技术),也缩短了近20!这意味着ai老师能更快地“学习”和“进化”!
“ai交通大脑”与“天眼”系统:
处理实时交通视频流、进行车辆识别、轨迹追踪、以及分析安防监控画面的速度和并发能力,都得到了翻倍以上的提升!为智慧城市和公共安全业务的拓展,提供了强大的算力支撑!
目标三:降低成本,提升能效!
除了性能的飙升,“启明一号”带来的另一个巨大好处就是成本和能效的优化!
据张浩初步估算,用“启明一号”替换掉同等推理性能的gpu,单卡的采购成本就降低了近40!更重要的是,其优异的能效比,使得数据中心的整体用电成本和散热成本,也显着下降了20-30!
对于未来智能这样拥有庞大数据中心、每月电费都是天文数字的公司来说,这每年节省下来的运营成本,就是数千万甚至上亿级别的!
技术闭环!降维打击!
未来智能科技,真正实现了从底层ai芯片设计,到中间层ai框架和算法,再到上层ai应用和服务的全栈自研和深度优化!
这种“软硬一体”的技术闭环,带来的是无与伦比的性能优势、成本优势和迭代
本章还未完,请点击下一页继续阅读>>>