背景
2023年6月01日 16:18

OpenAI公布最新大模型训练方法:监督AI像人类一样思考

随着人工智能(AI)技术的不断发展,AI幻觉问题引起了广泛关注。幻觉是指聊天机器人等AI模型生成的虚假信息,可能给人们带来误导和负面影响。为了解决这一问题,OpenAI公司最近公布了一种新的AI模型训练方法,旨在监督AI像人类一样思考,避免胡说八道的情况发生。然而,尽管这一举措值得肯定,但人们也认为OpenAI在强调AI的局限性和引导用户方面仍然有待改进。



一、OpenAI 正寻求新方法对抗“AI 幻觉”
据CNBC报道,OpenAI公司计划采取一种新的AI模型训练方法,以解决“AI 幻觉”难题。幻觉指的是聊天机器人等AI模型生成的虚假信息,这是AI的自信反应。OpenAI研究人员表示,他们计划通过设置新的奖励机制来解决幻觉问题,不仅奖励模型获得正确的最终结论,还要奖励模型在推理过程中做出的每个正确步骤。这种方法被称为“过程监督”,通过鼓励模型遵循人类思维方法链,提高AI输出的可解释性。OpenAI还发布了包含80万个人类标注的数据集,用于训练这套模型。

二、解决“AI 幻觉”难题任重道远
随着AI技术的广泛应用,人们对于“AI 幻觉”的潜在问题越来越担忧。过去几个月,一些案例显示了AI模型的虚假输出可能带来的后果。谷歌发布的聊天机器人Bard错误描述了詹姆斯·韦伯太空望远镜,而ChatGPT在一份法院文件中引用了不存在的案件,可能导致涉案律师面临处罚。这些事件引发了人们对于AI幻觉问题的关注。然而,对于OpenAI最新的AI模型训练方法,一些专家表示怀疑,认为实际效果需要在检查完整的数据集和示例后才能确定。他们指出,该研究还需要在学术界得到更多的验证,以确保其在实际应用中的有效性。

三、OpenAI 强调 ChatGPT 的局限性,但仍需更多努力
尽管OpenAI意识到了ChatGPT的“AI幻觉”问题,但在强调ChatGPT的局限性方面,他们还需要更多的努力。

在ChatGPT的主页上,OpenAI发布了一条警告,称其可能偶尔会产生不正确的信息,这也是他们系统功能和局限性的一部分。然而,这样的警告对于任何信息源都是适用的,并不能很好地引导用户,特别是对于ChatGPT这样一个强大的技术成果,它容易被误解并引发严重后果。因此,OpenAI在引导用户方面需要投入更多精力,明确强调ChatGPT无法稳定地区分事实和“幻觉”。

近几个月来,很多人都被ChatGPT的“胡说八道”所愚弄和影响。幸运的是,大多数情况下都是微不足道的,几乎没有造成负面影响,ChatGPT最多只是编造了一篇新闻报道、一篇学术论文或一本不存在的书。然而,在个别情况下,ChatGPT的错误信息确实可能引发严重后果。

四、监管措施的必要性:提高聊天机器人的透明度和控制
今年5月,得克萨斯州农工大学的一位教授使用聊天机器人检查学生是否依赖人工智能写文章。ChatGPT非常热情地表示所有论文都是由人工智能生成的,但却无法提供真实的证据。这位教授深信不疑,并感到非常愤怒。

这些事件并没有完全破坏人们对ChatGPT等聊天机器人的期望和认可。只要在正确的场景和适当的保护措施下使用,这些人工智能工具仍然可以在信息检索等任务中发挥巨大作用。目前,有各种有趣的研究正在进行,表明这些系统也许能在未来更好地尊重客观事实。

然而,在当前情况下,我们必须充分重视这些人工智能产品的局限性。企业需要向公众明确强调人工智能产品的局限性,媒体也需要承担相应的报道责任。
监管措施并不需要特别复杂,但却是必要的。例如,为什么ChatGPT不能识别用户想要的是事实性依据,并提供相关证据呢?这是一个值得思考的问题。目前,OpenAI正在努力改进ChatGPT,并通过向用户提供更多的控制和透明度来解决其中的局限性。

OpenAI计划在未来开发一种基于证据的界面,以便用户可以明确要求ChatGPT提供事实依据来支持其回答。这样的功能可以帮助用户更好地辨别和评估ChatGPT的回答,从而减少可能的误导。

此外,OpenAI还鼓励研究社区和开发者社区共同努力,提出改进方法和技术来解决这些问题。他们已经开始组织研讨会和竞赛,旨在推动对聊天机器人系统的监管和透明度研究。这种开放和协作的态度对于改进ChatGPT的功能和准确性非常重要。

最重要的是,我们作为用户和公众也需要保持警惕,并对ChatGPT等聊天机器人的回答持有适度的怀疑态度。在使用这些系统时,我们应该始终记住它们的局限性,并在需要时进行交叉验证和进一步的研究。此外,培养媒体素养和信息识别能力也是非常重要的,以便更好地理解和评估从聊天机器人等人工智能系统中获取的信息。


综上所述,尽管OpenAI已经意识到了ChatGPT的局限性,并采取了一些措施来解决这些问题,但仍需要更多的努力。未来的发展应该包括改进用户界面、推动研究和监管措施,并鼓励公众保持警惕和提高信息素养。只有通过共同努力,我们才能更好地应对和解决聊天机器人的局限性,实现更可靠和透明的人工智能交互。