OpenAI将用新方法来训练模型,以对抗人工智能“幻觉”

来源:211COIN

2023-06-01 14:00:52

6月1日消息,OpenAI发布的最新研究论文显示,该公司正在用一种新的方法来训练人工智能(AI)模型,以对抗人工智能“幻觉”。 人工智能幻觉指的是人工智能模型生成内容的能力,这些内容不是基于任何现实世界的数据,而是模型自己想象的产物。人们担心这种幻觉可能带来的潜在问题,包括道德、社会和实际问题。OpenAI的研究人员在报告中表示,即使是最先进的人工智能模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案。 该公司提出的新策略是:训练人工智能模型时,奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。根据研究人员的说法,这种方法被称为“过程监督”,而不是结果监督,它可能会提高人工智能的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。
211COIN发布此信息目的在于传播更多信息,与本网站立场无关,文章内容仅供参考,不代表任何确定性判断,且不构成投资建议,请谨慎对待,风险自担。
相关快讯
微信:yelbtc 请注明来意 | 邮箱:[email protected]

Copyright © 2018-2022 211COIN版权所有.

京ICP备17000885号-3