专栏中心

EEPW首页 > 专栏 > OpenAI将用新方法来训练模型 以对抗人工智能“幻觉”

OpenAI将用新方法来训练模型 以对抗人工智能“幻觉”

发布人:晴朗雨 时间:2023-06-01 来源:工程师 发布文章

①检测并减轻模型的逻辑错误或幻觉,是构建通用人工智能(AGI)的关键一步; ②这种方法被称为“过程监督”,而不是“结果监督”,它可能会提高人工智能的性能与准确性。

美东时间周三,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能(AI)模型,以对抗人工智能“幻觉”。

人工智能幻觉指的是人工智能模型生成内容的能力,这些内容不是基于任何现实世界的数据,而是模型自己想象的产物。人们担心这种幻觉可能带来的潜在问题,包括道德、社会和实际问题。

当OpenAI的聊天机器人ChatGPT或谷歌公司竞品Bard纯粹在捏造虚假信息时,就会发生人工智能幻觉,表现得就像是在滔滔不绝地谈论事实一样。某些独立的专家对OpenAI这样做的效果表示怀疑。

举个例子,在谷歌2月份为Bard拍摄的宣传视频中,这个聊天机器人对詹姆斯·韦伯太空望远镜做出了不真实的表述。最近,ChatGPT在纽约联邦法院的一份文件中引用了“伪造”的案件,导致涉案的纽约律师可能面临处罚。

OpenAI的研究人员在报告中写道:“即使是最先进的人工智能模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案。”

该公司提出的新策略是:训练人工智能模型时,奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。根据研究人员的说法,这种方法被称为“过程监督”,而不是“结果监督”,它可能会提高人工智能的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。

OpenAI的数学研究员Karl Cobbe指出:“检测并减轻模型的逻辑错误或幻觉,是构建通用人工智能(AGI)的关键一步。”他指出,这项研究背后的动机是解决人工智能幻觉,以便使模型更有能力解决具有挑战性的推理问题。

Cobbe补充道,OpenAI已经发布了一个附带的数据集,其中包含80万个人类标签,用于训练研究论文中提到的模型。

此前一天,科技界高管和人工智能科学家正在对AI敲响警钟,他们表示,这项技术带来的灭绝风险堪比疫情和核战。

超过350人签署了人工智能安全中心(Center for AI Safety)发布的一份声明,该组织表示,与疫情和核战争等其他社会规模的风险一样,减轻人工智能带来的灭绝风险应该成为全球的优先事项。


*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。

关键词: OpenAI 人工智能

相关推荐

特朗普向国会提交人工智能政策提案,要求统一规制以取代各州独立规则

东南大学人工智能03

人工智能技术大幅提升 6G 网络吞吐量

个人-口罩识别系统项目采访

ADI公司:工业4.0——人工智能的端

视频 2019-11-08

人工智能提升6G吞吐量

仿人机器人

人工智能开始简化可编程逻辑的设计

东南大学人工智能01

Arm AGI CPU:智能体式人工智能云时代的芯片基石

Keysight将1.6T互连验证方案扩展

OpenAI宣布关停Sora生成式AI视频创作工具

激光芯片为AI数据中心带来多路复用

人工智能与机器人

微软X英特尔黑客松大赛

通过NVIDIA实现数据科学转型

本科毕业设计:一种基于发育思想的语音识别系统实现

东南大学人工智能02

西门子与Rittal合作开发人工智能数据中心电力基础设施

个人-窗口卫士项目采访

更多 培训课堂
更多 焦点
更多 视频

技术专区