这一由 AI 驱动的学习方法已经经历了 等多代产品的考验,并在谷歌内部取得了显著的成就。更令人瞩目的是,谷歌 上发表了该方法的附录,更为详尽地阐述了其对芯片设计领域所产生的深远影响。同时,谷歌还开放了一个基于 模块预训练的检查点,分享了模型权重,并将其命名为 的问世,不仅预示着 AI 在芯片设计领域的应用将变得更加广泛,也标志着我们正迈向一个由「芯片设计芯片」的全新时代。
的巅峰之作正以其在芯片
19 世纪和 20 世纪初通过电报系统传输的通信。与此同时 希腊电报数据 希腊电报的发展对该国在独立战争期间以及后来的现代化过程中的政治、经济和社会交流具有重要意义。电报背后的技术提高了信息传输的效率,并有助于促进商业活动。
设计领域的革命性进展,捕获全球科技界的瞩目。 芯片设计是一项位于现代科技之巅的领域,其复杂性在于将无数精密元件通过极其细微的导线巧妙连接。作为首批应用于解决现实世界工程问题的强化学习技术之一,能够在短短数小时内完成与人类相媲美甚至更优的芯片布局设计,无需耗费数周或数月的人力劳动。这一划时代的进展,为我们打开了超越传统极限的想象之门。 那么,AlphaChip 究竟是如何实现这一壮举的呢? 的秘诀在于其采用的强化学习原理,将芯片布局设计视为一场游戏。从一个空白的网格出发,AlphaChip 逐步放置每一个电路元件,直至全部就位。
随后根据布局的优劣
系统会给予相应的奖励。 更重要的是,谷歌创新性地提出了一种「基于边」的图神经网络,使得 AlphaChip 能够学习芯片元件之间的相互关系,并将其应用于整个芯片的设计中,从而在每一次设计中实现自我超越。与 AlphaGo 类似,AlphaChip 可以通过「游戏」学习,掌握设计卓越芯片布局的艺术。 在设计 TPU 布局的具体过程中,AlphaChip 首先会在前几代芯片的各类模块上进行预训练,包括芯片上和芯片间的网络模块、内存控制器和数据传输缓冲区等。这一预训练阶段为 提供了丰富的经验。随后,谷歌利用 AlphaChip 为当前 TPU 模块生成高质量的布局。
与传统方法不同
通过解决更多的芯片布局任务,不断优化自身,正如人类专家不断通过实践提升技能一样。正如 DeepMind 联合创始人兼 所言,谷歌已经围绕 建立了一个强大的反馈循环: * 首先,训练先进的芯片设计模型 ) * 其次,使用 设计更优秀的 AI 芯片 * 然后,利用这些 AI 芯片训练更出色的模型 * 最后,利用这些模型再去设计更出色的芯片 如此反复,实现了模型与 AI 芯片的同步升级,Demis Hassabis 表示,「这正是谷歌 TPU 堆栈表现如此好的部分原因」。 与人类专家相比,AlphaChip 不仅放置的模块数量更多,而且布线长度也大大减少。随着每一代新 TPU 的推出,AlphaChip 设计出了更优秀的芯片布局,提供了更完善的整体平面图,从而缩短了设计周期并提升了芯片性能。 谷歌在三代 TPU(v5e、TPU v5p) 中 设计芯片块的数量与平均线长减少量 谷歌 TPU 的 10 年征程:从 ASIC 的坚持到 AI 设计的革新 作为 TPU 领域的探索者与先行者,纵观谷歌在这一技术线上的发展历程,不仅仅是凭借其敏锐的洞察力,更彰显了其非凡的魄力。
众所周知在 世纪年代
以其成本效益高、处理能力强和速度快的特点,赢得了市场的广泛青睐。然而,ASIC 的功能是由定制的掩模工具决定的,这就意味着,客户需要支付昂贵的前期一次性工程 (NRE) 费用。 此时 以其降低预付成本和减少定制数字逻辑风险的优势,走入大众视野,尽管在性能上并非全面超越,却在市场上独树一帜。 当时,业界普遍预测摩尔定律将推动 FPGA 的性能超越 ASIC 的需求。但事实证明,FPGA 作为一种可编程的「万能芯片」,虽然在探索性和小批量产品中表现出色,能够实现比 GPU 更优秀的速度、功耗或成本指标,但仍然无法摆脱「通用性与最优性不可兼得」的规律。一旦 FPGA 为某个专用架构铺平了道路,它就会让位给更为专业的 ASIC。 进入 21 世纪后,AI 技术热潮一浪高过一浪,机器学习、深度学习算法持续迭代,业界对于高性能、低功耗的专用 AI 计算芯片需求上涨,CPU、GPU 等在很多复杂任务上显得力不从心。在此背景下,谷歌在 2013 年做出了一个大胆的决定,选择 ASIC 来构建 TPU 基础设施,围绕 TensorFlow 和 JAX 进行开发。
值得注意的是自主研发 是
一个周期长、投入大、门槛高、风险极大的过程。一旦方向选择错误,可能会导致巨大的经济损失。然而,为了探索更具成本效益和节能的机器学习解决方案,谷歌在 2012 年通过深度学习在图像识别上取得突破性进展后,就立即在 2013 年开始研发 TPUv1,并在 2015 年宣布第一代 TPU 芯片 (TPU v1) 在内部上线,这标志着全球首款专为 AI 设计的加速器诞生。 幸运的是,TPU 很快就迎来了一个引人注目的展示机会。
将性能优化的条件视为游戏的胜利条件
采用强化学习的方法,通过训练一个智能体,以累计奖励最大化为目标,不断优化芯片布局的能力。他们开启了 1 万局游戏,让 AI 在 1 万个芯片上练习布局布线并收集数据,同时不断学习优化。 最终,他们发现与人类工程师相比,AI 在面积、功率和电线长度方面的表现更优越或媲美手动布局,同时满足设计标准所需的时间要少得多。结果表明,AlphaChip 在不到 6 小时的时间内就可以生成媲美或超过人工的现代加速器网表上的布局,而在同样条件下,现有人类专家可能需要几个星期来完成同样的工作。 在 AlphaChip 的助力下,谷谷歌又发布了第六代 TPU 芯片 Trillium,它能够在单个高带宽、低延迟 Pod 中扩展为多达 256 个 。
另有数据显示
超过 60% 的生成式 AI 初创公司和近 90% 的生成 电话号码数据库示例 式 AI 独角兽都在使用 Google Cloud 的 AI 基础设施和 Cloud TPU 服务。 种种迹象表明,谷歌十年磨一剑,TPU 已经走出培育期,开始以卓越的硬件性能为谷歌在 AI 时代进行反哺。而 AlphaChip 所蕴含的「AI 设计 AI 芯片」路径,也为芯片设计领域开辟了新的视野。 AI 革新芯片设计:从谷歌 AlphaChip 到全流程自动化的探索 尽管 AlphaChip 在 AI 设计芯片领域独树一帜,但它并非孤军奋战。AI 技术的触角已经广泛延伸至芯片验证、测试等多个关键环节。 芯片设计的核心任务是优化芯片的功耗 (Power)、性能 (Performance) 和面积 (Area) ,这三个关键指标统称为 。
例如微软在使用 后将芯片模块
的功耗降低了 10%-15%,同时保持性能不变;意法 TG 编号 导体将 PPA 探索效率提高了 3 倍以上;存储芯片巨头 SK 海力士则将芯片面积减少了 5%。Synopsys 的数据显示,DSO.ai 已成功助力超过 300 次商业流片,标志着 AI 在真正的芯片设计与生产中发挥了重要作用。 在 AI 辅助芯片验证方面,Synopsys 新思科技发布的技术报告也指出,验证过程占据了整个芯片开发周期的高达 70% 的时间。一次芯片流片的成本高达数亿美元,而现代芯片的复杂性不断增加,验证难度可想而知。为此,Synopsys 新思科技推出了 VSO.ai 工具,利用 AI 优化验证空间,加速覆盖率的收敛速度。 VSO.ai 能够推断出不同的覆盖率类型,与传统的代码覆盖率形成互补,AI 还能从验证经验中学习,不断优化覆盖率目标。此外,Synopsys 新思科技还推出了。