新闻中心

EEPW首页 > 智能计算 > 设计应用 > 无防护构建AI:半导体生态直面标准分裂、IP泄露与运行时保障危机

无防护构建AI:半导体生态直面标准分裂、IP泄露与运行时保障危机

作者: 时间:2026-05-08 来源: 收藏

人工智能正以远超监管规则的速度渗透整个,IP 盗窃、安全漏洞风险急剧上升,且缺乏有效防范手段。

从嵌入 EDA 流程的基础模型,到影响设计、验证与物理实现的智能体系统,AI 正在重塑芯片开发方式与风险引入路径。尽管业界普遍认同 AI 治理的必要性,但现有举措碎片化、解读不统一、重意图而轻可衡量结果。简单说:当前治理严重不足,传统监管方式已落后,且难以追上创新步伐。

一、AI 治理:缺失的 “护栏”

Dana Neustadter(新思科技):“AI 治理需要指导原则、法规、政策与框架流程,引导负责任的开发、部署与使用。如同汽车的功能安全与网络安全,AI 系统需要保障数据安全、模型完整性、访问控制与身份认证,以此建立信任、伦理、问责与透明度。”

安全关键行业很可能成为首个可落地、可强制执行的 AI 问责样板,复制汽车、工业控制、航空航天与军工领域的安全标准演进路径。

John Weil(Synaptics):“半导体行业与生态伙伴几十年里一直协同建立安全标准,从 90 年代军工 / 航空安全,到汽车与工厂自动化催生大量 ISO 规范。但在 AI 领域,我们至今没有这套体系。如果有人说‘我要用 AI 做工业自动化安全产品’,这两个词现在很难放在一起。”

二、定义用例:AI 治理的关键

专家普遍将 AI 分为两类截然不同的用例:

1. 数据管理类

在网络安全领域已相对成熟,例如杀毒软件、安全运营中心(SOC)已大量由 AI 驱动。面对海量数据与关联复杂度,人类分析师已无法处理,AI 负责第一层内容与元数据分析。

但这里存在重大治理问题:

Sylvain Guilley(Secure-IC/Cadence):“SOC 运营者并不真正拥有数据,只是监控。如果数据包含敏感机密信息,治理必须确保 AI 不会导致信息损坏、泄露或被攻击。依赖 SaaS 等外部服务商时,数据所有者与分析者不一致,风险极高。”

2. 代码 / 硬件生成与验证类

更大的风险来自AI 生成知识产权。

“这里存在灰色地带:输出归谁所有取决于大模型的授权协议、训练数据来源、出口管制规则。我在法国使用国外工具,厂商说我拥有输出结果,但数据可能已流向其他国家,目前没有更强的法律依据。”

三、IP 安全风险空前严峻

基础模型与 AI 智能体在全行业普及,带来远超表面的深层风险。

Alexander Petr(是德科技 EDA):“IP 安全是我最大担忧。所有人都想极速推进,有意或无意泄露 IP 的风险极高。大家对自家 IP 非常谨慎严格,但对他人 IP 却没有同等严谨性。”

例如,客户要 智能体流程,需要来自晶圆厂的信息,这些信息过去受 NDA 保密协议约束。

“现有 NDA 完全没有说明如何在 AI 化过程中处理晶圆厂 IP。所有晶圆厂都在纠结:PDK 能否输入基础模型?目前没有法律先例,所有讨论最终都卡在 NDA 上,除此之外没人有答案。”

设计公司从晶圆厂获取 PDK / 库文件输入大模型,从 EDA 厂商获取工具受用户授权协议(ULA)约束。但现有 ULA 几乎不涉及 AI,只简单提到反向工程。

“用户把两边信息都喂给大模型以求自动化与智能体能力。他们认为只要本地部署、做好安全就没问题。但我们能指望他们妥善保护 IP 吗?能确保配置不会泄露回基础模型吗?还是迟早会因为不当操作导致我们的信息进入模型?”

芯片架构师必须在鼓励创新与强制安全之间艰难权衡,需要可适配的行业标准与法律框架,确保在日益复杂的芯片设计中负责任地融合 AI。

四、AI 加剧软件开发压力

AI 工具让编码、测试、部署速度大幅提升,但也带来质量、可解释性与安全隐患。开发者可能在不完全理解含义与漏洞的情况下直接使用 AI 生成结果。

Jason Oberg(Arteris):“在传统软件开发中,大模型生成代码已非常普遍,生成 RTL、Verilog、VHDL、测试平台的情况也在增多,但不如 JS、C 语言普及。芯片设计的测试与验证原本非常严格,因为硬件无法打补丁。但现在出现问题:用 AI 生成设计,再用 AI 生成测试,测试通过就认为没问题,这其中存在巨大隐患。验证团队与设计团队如果只追求快 10 倍交付,会倾向跳过严谨校验。”

五、主要 AI 治理法规 / 标准一览


六、AI 治理应由政府强制推行吗?

Neustadter(新思科技):“强制要求与责任界定能让合规变得必要,但即使欧盟 AI 法案这类强制规则,依然存在明显缺失。当前大多数系统无法在运行中主动发现问题、快速定位故障、界定责任、防止复发。”

补上这层 “缺失的运行时保障”,需要持续监控、事件上报、明确性能阈值。同时全球法规互不兼容,缺乏统一标准,是 AI 治理最紧迫的缺口。

Mike Eftimakis(CHERI Alliance):“我们在不顾后果地 rushed AI 上市。市场只会奖励先发者与快速创新者,无法自行解决问题,唯一途径是监管。但这不是一国问题,是全球问题。而政府立法永远比技术慢得多。”

Guilley(Secure-IC):“需要全行业统一强制治理规则,否则连定义都无法对齐。AI 让情况更复杂,数据与算法混合、互相训练、形成反馈环,失控风险极高。”

行业普遍认为:政府很难主导制定标准,因为技术变化太快,监管机构缺乏嵌入式与底层技术理解。最可能的路径是复制汽车行业模式:产业先形成实践,政府再进行评测与认可。

Weil(Synaptics):“最先出现监管的领域一定是汽车 + AI,而不是政府凭空制定。政府只会事后度量。”

Petr(是德科技):“监管太慢、解释太宽、可能过于严苛扼杀速度。等标准出台时已经过时。我们现在只剩下盲目乐观与侥幸心理。”

七、结论

AI 治理包含可执行问责、运行时保障、IP 与数据保护、人工监督、可解释性、结果导向控制,这些将率先在安全关键行业落地,再逐步普及为通用规范。

Guilley:“大模型天生具有非确定性,每次回答都可能不同,难以保证一致结果,给预测性带来巨大挑战。”

真正管控 AI,必须从设定明确要求开始,引导市场落地标准。

AI 治理不应阻碍创新,目标是确保强大的 AI 系统实时可信、负责行事、保护关键资产、失效时安全可控。



评论


相关推荐

技术专区

关闭