AI 在 EDA 中扮演多重角色
AI 融入我们的世界看起来似乎来得突然且出人意料,但事实上,EDA 行业在过去十多年里一直在悄然采用 AI。真正发生变化的是,随着大语言模型(LLM)的能力不断增强,以及它们被应用于愈发复杂的多物理场问题中,AI 现在变得更加“可见”了。
AI 日益突出的地位背后,有两个根本性的转变。
首先,热问题正在成为更大封装尺寸和更高集成度的障碍。因此,功耗、热效应和机械问题如今已与构建材料的物理属性紧密绑定。
其次,左移(shift left)——即希望在设计流程的更早阶段获得更充分的信息,从而做出更明智的决策——正在与自顶向下的设计实践相结合。这两种变化共同推动物理因素介入架构层面的决策,包括 2.5D 和 3D 组件中的平面规划、分区和集成选择。
正是在这里,AI 能够发挥作用,而且它是从两个方向介入的。
一方面,AI 被集成在 EDA 工具内部,使工具本身变得更强大、更灵活;另一方面,AI 存在于工具之外,为工程师提供有价值的数据。虽然这两种方式可以共存,但它们使用的是不同形式的 AI。
此外,AI 还可以用于将这些内容连接起来,通过构建合适的、可执行的设计和验证模型,作为物理器件的抽象。这些应用场景可能促成方法学的提升,使设计过程更高效、结果更优。
编者注:
在 EDA 语境中讨论 AI 时,“模型”这一术语容易引起混淆,因为它指代不同的对象。
第一种是 AI 模型,例如大语言模型,由推理引擎基于训练结果生成答案。
第二种是 EDA 模型,它可能是设计或验证(DV)框架的一部分,由执行引擎响应激励运行,可能使用 AI,也可能不使用。
当 AI 模型被用来创建 EDA 模型的抽象时,这种混淆会更加严重。本文已尽可能对此加以澄清。
在工具内部,还是工具之外?
多个因素会影响 AI 被部署的位置。AI 可以用来替代或增强工具中已有的算法,也可以更具“代理性(agentic)”,像工程师一样驱动工具运行。
“AI 放在工具之外的一个优势是,我们可以做到工具无关,”西门子 EDA 定制 IC 事业部副总裁兼总经理 Amit Gupta 表示。“这样 AI 可以调用内部开发的工具,也可以调用第三方工具。AI 层负责智能地调用工具并与工具进行迭代。那么,为什么还要把 AI 放到工具内部?当我们在求解器层面进行深度耦合时,优势在于可以利用更多知识和信息来训练 AI,这些信息通过 API 是无法获得的,由此还能带来显著的性能提升。”
其他人对此表示认同。
“我们把 AI 看作是工具的伙伴,用来增强工具,而不是取代工具,”Synopsys 产品管理高级总监 Anand Thiruvengadam 说,“我们并不认为工具会被移出流程。尤其是在签核阶段,工具永远必须在环。AI 可以做大量前端工作,可以用于预测、优化等,但最终仍然需要工具作为护栏来完成签核。”
代理式 AI(Agentic AI) 则将问题带向了另一个方向。
“代理式 AI 的美妙之处在于,你可以把它视为人类——只是人工的,”Arteris 首席市场官 Michal Siwinski 说,“你赋予它更高的自由度去完成特定任务,然后协调这些任务,根据不同层级的权衡共同运作。你给予它多大的自由度,决定了‘人类在环’仍然如何参与流程。现实中你不可能有一个工程师团队,每个人只专注性能、面积、吞吐或进度。但你可以拥有一个小团队——只是它由 AI 代理组成,而不是人类工程师,每个代理都有自己的专业领域。”
这一方向正在快速推进。
“工具层面的迭代需求非常大,”Partcl 联合创始人兼 CTO Vamshi Balanaga 表示,“例如,根据测试平台或 PPA 结果调整工具参数和 RTL,这些工作非常适合由像人类一样调用工具的代理来完成。目前代理在这方面还不够成熟,但它们会变得越来越好,尤其是当工具本身被改造以增强推理能力之后。”
这也有助于构建对更多工程师友好的设计流程。
“在前端阶段,它具有巨大价值,比如从规格直接生成 RTL、SystemC,或者基于上一代设计规格派生出下一代产品,”Cadence 战略与新业务集团总监 Rob Knoth 说,“如何快速创建一个满足新市场需求的衍生产品?这是一个非常重要、极具潜力的领域。基于 LLM 的 AI、生成式 AI、代理式 AI,在这里有着天然优势,可以创造巨大的价值。”
在某些情况下,将 AI 深度集成进工具内部也能带来显著价值。
“历史上,我们曾将 AI 用于工具外部的某个单一应用,”Gupta 说,“后来我们做了一些基准测试,发现如果将 AI 与求解器本身进行耦合,效果会好得多。通过直接从求解器向 AI 提供信息,我们获得了 2 倍到 30 倍 的性能提升,而这些信息是通过 API 无法获得的。”
是否选择内部集成,往往取决于要解决的问题类型。
“问题越接近物理本质,神经网络就越需要与工具进行深度集成,”Balanaga 说,“物理设计工具在解决极其复杂的 3D 优化问题,因此将训练好的模型深度嵌入优化器,有助于找到更优解。”
对抽象模型的需求
左移设计 需要新的模型。这些模型必须在细节与执行性能之间取得平衡。
“我们当然可以在晶体管级别处理这些物理和多物理场问题,”Gupta 表示,“行业已经这么做了很多年。一切从工艺设计套件(PDK)开始,它们提供晶体管性能信息,例如 IV 曲线。然后我们使用机器学习和强化学习,从这些数据中构建数值模型,用于预测并处理多物理场问题。”
这些抽象模型正开始影响设计流程的多个方面。
“在优化过程中,决策至关重要,而通常需要某种模型来辅助决策,”Fraunhofer IIS 自适应系统工程部门先进混合信号自动化团队负责人 Benjamin Prautsch 说,“例如,目前有研究提出新的优化方法,可以绕过昂贵的 3D 电磁仿真。这些方法使用由一定数量初始(且昂贵)仿真结果训练得到的网络。随后,优化过程通过这些训练好的设计模型大幅加速,从而获得更优的整体结果。不过必须强调的是,前期仿真和训练的投入,必须与后续节省的成本形成合理的比例。”
过去几年,大语言模型几乎抢走了所有风头。
“直接应用 LLM 并不会让你走得太远,”Balanaga 说,“语言模型并不擅长处理需要编码进专用 AI 模型中的细粒度物理信息。将 AI 用于接近物理的问题时,需要非常谨慎的处理方式,并在模型设计和训练中注入领域知识。”
EDA 专用的领域模型仍在不断演进。
“目前这些模型已经相当有能力,而且基础模型及其所掌握的知识正在快速进步,”Synopsys 的 Thiruvengadam 表示,“基础模型具备通用能力,而在 EDA 场景中,必须对这些 LLM 进行定制,使其适配特定领域和上下文,才能提高响应的准确性。”
但这并不容易。
“当人们谈论‘物理 AI’时,往往是从生成式和代理式 AI 的角度出发,”Gupta 说,“最初是大语言模型擅长理解语言。现在,人们正投入大量资源,将其扩展为能够处理物理问题的模型,覆盖语言以外的其他领域。”
已有一些成功案例。
“多物理场意味着跨越多个物理域的问题,而当前的 LLM 并不擅长处理这些问题,”Normal Computing 产品工程负责人 Arvind Srinivasan 说,“历史上,我们依靠仿真来解决这些问题。现在,人们尝试将物理约束嵌入 AI 训练中。AlphaFold 是黄金标准,它结合了强化学习、物理约束和仿真。这之所以可行,是因为可以快速否定不合理的蛋白质折叠。而在硬件领域,完整仿真往往需要数小时,无法获得快速的奖励信号,这是一个巨大的挑战。”
那么,EDA 能够使用哪些设计和验证模型?
“AI 正在建立语言与数学结构之间的连接,”Prautsch 说,“例如约束图,这是 EDA 中常见的结构。AI 很可能充当从需求到结构(或部分结构与约束)的转换器,反之亦然,用于验证。”
随着现有算法需要更好地感知多物理场问题,AI 辅助的价值也日益显现。
“考虑布局感知的门级尺寸调整,这是一个非常接近物理的问题,同时也是深度神经网络已展现出潜力的典型问题,”Balanaga 说,“该模型本质上是在执行过去几十年人工调优的启发式规则。我们的理念类似 AlphaGo —— 它通过发现更优的决策过程,超越了人工调优的专家系统。解决方案结合了合成数据和强化学习。”
AI 生成的模型
半导体设计的核心之一,是使用对晶体管的抽象来构建门级模型。这些模型在保持足够精度的同时,拥有更高的仿真速度。
左移设计要求在开发流程的各个阶段都能进行有信息支撑的决策,这需要大量新的模型。然而,模型的创建和验证成本极高,这促使人们希望借助 AI 来生成这些模型,无论是由传统引擎执行,还是作为 AI 模型进行推理。
模拟与验证领域尤其需要快速而准确的模型。
“验证将通过加速生成代理模型来获得支持,用于系统级仿真,”Prautsch 表示,“这对于系统级建模尤为重要,尤其是在 AMS 场景中,可以用基于 AI 的代理模型替代冗长的仿真。”
EDA 一直在使用数据驱动的方法,例如模拟退火。
“生成式 AI 的真正不同之处在于,你可以利用历史仿真作为训练数据,构建大型模型来改进后续仿真,或者使用定制 LLM 将庞大的规格说明翻译为物理约束,”Srinivasan 说,“但如果验证 AI 生成的 RTL 或测试计划所需时间,与手工构建几乎一样,那就没有节省任何时间。AI 不会取代那些审查成本并未降低的领域。”
这种技术正在逐步落地。
“你可以基于一个设计来训练模型,”现已并入 Synopsys 的 Ansys 电子与半导体业务部门总监 Rich Goldman 说,“但你需要大量数据,成千上万个数据点,形成参数扫描。你不断微调设计并运行仿真,再调整一个参数,再运行一次,这些构成训练数据集。一旦模型训练完成——这本身需要很长时间——你就可以几乎瞬间获得结果。原本需要数周甚至数月的运行,现在可以立即得到。你可以将其应用于不同设计和迭代,找到最优解。它无法达到 100% 精度,但可以达到 90%–95%。”
小语言模型(SLM) 在这里也能发挥作用,因为它们可以针对特定问题定制,从而降低成本和复杂度。但从 FP32 缩减到 FP16 甚至更低精度,也引发了对结果准确性的担忧。
“你需要从更大的模型中蒸馏知识,并注入到更小的模型中,同时还要对权重进行剪枝,”ChipAgents CEO William Wang 表示,“比如将 16 位权重压缩为 8 位。一切都在压缩。但在此过程中,仍然必须达到一定的准确性水平。”
EDA 中的数据稀缺问题进一步加剧了挑战。
“AI 面临的最大问题之一,是获取足够的训练数据,以使 LLM 达到可靠水平,”Breker Verification Systems CEO Dave Kelf 说,“我们正在看到 SLM 等方法被用于缓解数据稀缺问题。正是这种思路,将推动 AI 在 EDA 中的实际应用。AI 专业能力与 EDA 经验的结合至关重要。”
强化学习可以从较小的数据集起步。
“强化学习需要两个要素,”Balanaga 说,“以布局感知门级尺寸调整为例,你需要一个能够预测更优门尺寸的模型,以及一个运行速度极快的环境,比如时序分析引擎。训练就在这个循环中进行,模型在大量合成网表上探索不同的门尺寸组合。诚然,这不如直接拥有大量已优化网表高效,但在数据不存在的情况下,我们只能通过计算来生成数据。”
抽象层级的提升也会影响准确性。
“当你进入更高层级的抽象,尤其是自然语言这一抽象层时,对底层计算的信任至关重要,”Knoth 表示,“如果你对底层发生的事情没有足够信心,那么更高层的抽象就会失去准确性,效率下降,最终结果也不会令人满意。”
关于 AI 模型准确性的讨论十分常见。
“人们常常混淆‘估计’与‘相关性’,”Siwinski 说,“我们当然希望完全相关,但很多事情会随工作负载变化。在系统级做出的决策,并不一定能一比一映射到实现层面。我们在架构级权衡中引入了物理感知,通过从布局布线中获取关于拥塞、阻塞、线长和功耗影响的信息。传统流程中,前端做完,后端往往会说‘这行不通’。我们试图在早期阶段就构建足够多的关注点和 KPI,使设计不会偏离可实现性。这是一种近似,但已经足够好,可以避免前端设计沦为不可实现的幻想。”
信任,但要验证。
“NVIDIA 展示了使用代理模型大幅加速图形渲染的能力,”Knoth 说,“这与我们在签核阶段面临的挑战类似。当你看到一张图像时,你是否信任它?这仍然基于物理原理。我不认为 AI 在计算中的角色可以被排除,但它无法取代第一性原理。基于物理的算法仍然是互补的。即便是代理模型,在推断大量像素时,仍然需要计算一个种子作为推理基础。”
AI 贯穿整个设计流程
在软件行业,AI 已被期望用于生成代码。
“如果能够记录设计人员和工具使用中的‘隐性知识’,就有可能从中学习,”Thiruvengadam 表示,“这正是 LLM 的力量所在。只要将这些知识以可被 LLM 吸收的形式捕获,LLM 就能完成大量工作。你可以问它:‘针对这个规格,最合适的模拟架构或拓扑是什么?’LLM 会给出架构建议,并附带示例和大量辅助资料。”
还有人希望 AI 能够帮助处理规格与需求。
“挑战在于,需求往往成千上万,很难识别其中的逻辑错误,”Prautsch 说,“这本质上是从语言到逻辑,或到数学表示的转换,而这正是 AI 的优势领域。”
关键在于 与工程师沟通。
“当人们谈论‘推理’时,往往真正想要的是‘可解释性’——人类可以验证的输出,”Srinivasan 说,“LLM 并不像人类那样推理,它们只是进行 Transformer 解码。但如果你强制它输出带步骤的计划,看起来就像推理,也就变得可用。这并不是真正的推理,而是一种输出约束,目的是让人类可以与之交互。核心在于人机协作设计,而不是让机器像人一样思考。”
快速演进
鉴于 AI 各个方向的创新速度,可以预见,EDA 工具内部和代理式 AI 工具都将迅速进化,帮助工程师减轻大量繁琐的工具迭代工作。
“新技术和新能力每天都在发布,”Gupta 说,“我们不断评估将这些技术引入底层架构的机会,以提升速度。EDA 是独特的,我们必须跟上基础技术的发展节奏。未来,AI 能力在工具中的增长速度只会越来越快。”
随之而来的,是工程师角色的变化。
“我们预计,AI 将使团队能够设计更多芯片,”Balanaga 表示,“先进代理与改进工具的结合,将极大扩展设计能力。人类的精力将更多集中在前期架构规格的精确定义上。之后,大部分下游工作将由 AI 完成,而人类则作为协调者,解决设计意图中的歧义。”













评论