研究揭示大型语言模型传播虚假信息问题

[db:摘要]

最新研究揭示,大型语言模型存在传播虚假信息的问题,特别是在回答关于事实、阴谋、争议等陈述时。研究强调了ChatGPT存在的频繁错误、自相矛盾及重复有害信息的情况。语境与提问方式被指出可能影响模型对虚假信息的“附和”程度。由于这些模型在学习过程中可能学习错误信息,这引发了对其潜在危险性的担忧。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21829

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2023年12月21日
下一篇 2023年12月21日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注