最近的研究发现,OpenAI的ChatGPT等大型语言模型经常出现重复有害错误信息的问题。加拿大滑铁卢大学的研究人员对ChatGPT的理解能力进行了系统测试,发现GPT-3在回答过程中出现自相矛盾,并重复有害错误信息。他们使用了不同的调查模板,并对超过1200个不同的陈述进行了询问,发现了这一问题的存在。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21779
该文观点仅代表作者本人,平台仅提供信息存储空间服务。
[db:摘要]
最近的研究发现,OpenAI的ChatGPT等大型语言模型经常出现重复有害错误信息的问题。加拿大滑铁卢大学的研究人员对ChatGPT的理解能力进行了系统测试,发现GPT-3在回答过程中出现自相矛盾,并重复有害错误信息。他们使用了不同的调查模板,并对超过1200个不同的陈述进行了询问,发现了这一问题的存在。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21779
该文观点仅代表作者本人,平台仅提供信息存储空间服务。