Google用AI设计AI芯片,不到24小时就能设计出Tensor处理单元
芯片按月甚至年计算的设计周期与 AI 算法按周甚至按天迭代的周期之前的矛盾越来越明显,为了能够保证设计出的芯片能够更好地满足快速迭代的算法,Gooogle 团队将 AI 强化学习方法应用于芯片设计中复杂的“布局”工作当中,获得了显著的效果提升。而两大 EDA 巨头 Synopsys 和 Cadence 也推出了具有 AI 功能的工具。看来,AI 应用于 AI 芯片的趋势已经显现。
图片来源 :iStockphoto
如今许多人在大量的资金支持下通过大量的工作来开发新的 AI 芯片,这些芯片的目的是更快和更高效地执行 AI 算法。但问题在于,芯片的设计通常需要花费一两年甚至三五年时间,并且机器学习(ML)算法的发展速度非常快,这么长的芯片设计周期难以满足算法更新的需求。
理想情况下,你设计出的芯片是能够很好地满足当今 AI 算法的需求,而不是两到五年前的 AI 算法。而 Google 的解决方案是——让 AI 设计 AI 芯片。
Arxiv 网站上的一篇论文的作者写道:“我们相信,AI 将能够缩短芯片的设计周期,在硬件与 AI 算法之间建立共生关系,并进一步推动彼此的进步。”。
“我们已经看到,有些算法或神经网络架构在现有的 AI 加速器上效果不佳,因为加速器设计类似于两年前,而那时这些神经网络架构和算法并不存在。” Google 的高级研究科学家 Azalia Mirhoseini 表示,“如果缩短设计周期,我们可以缩小差距。”
Mirhoseini 和高级软件工程师 Anna Goldie 提出了一个神经网络,可以学习并设计一些需要耗费大量时间的部分,这个工作被称作“布局”。在对芯片设计进行了足够长时间的学习之后,它可以在不到 24 小时的时间内为 Google Tensor 处理单元完成设计,在功耗、性能、面积(PPA)都超过了人类专家数周的设计成果。
布局之所以如此复杂且耗时,是因为它涉及到布局逻辑和内存块,或这些块的群集(也称为宏),要达到芯片功耗和性能最大化,而芯片面积最小。这当中面临的挑战是,必须在遵守互连密度规则的同时进行所有这些工作。
Goldie 和 Mirhoseini 的目标之所以在芯片的布局,是因为即使使用当今的先进的设计工具,也需要人类专家花费数周的时间迭代才能得出可接受的设计。
Goldie 和 Mirhoseini 将芯片布局建模为强化学习问题。与典型的深度学习不同,强化学习系统不会使用大量标记的数据进行训练。相反,他们会边做边学,并在成功时根据有效信号调整网络中的参数。在这种情况下,有效是降低功率、改善性能和减少面积组合的替代指标。
结果就是,布局机器人执行的设计越多,其效果就会越好。
该团队希望像他们一样的 AI 系统能引领,在相同时间内设计更多的芯片,并且运行速度更快、功耗更低、制造成本更低、芯片的面积更小的设计。
除了谷歌,雷锋网此前也报道两大 EDA 巨头也开始在其芯片设计工具中加入 AI。Synopsys 推出的是用于芯片设计的自主 AI 应用程序——DSO.ai (Design Space Optimization AI)。DSO.ai 通过获取由芯片设计工具生成的大数据流,并用其来探索搜索空间、观察设计随时间的演变情况,同时调整设计选择、技术参数和工作流程,以指导探索过程向多维优化的目标发展。
Cadence 也推出了新版 Cadence 数字全流程,这一新版的流程采用了支持机器学习(ML)功能的统一布局布线和物理优化引擎等多项业界首创技术,吞吐量最高提升 3 倍,PPA 最高提升 20%。
总的来说,两大 EDA 公司加入 AI 的芯片设计工具可以缩短芯片的设计时间高达 10 倍,芯片 PPA 提升 20%。
参考资料: