牛津大学AI研究员发警告:大语言模型对科学真相构成风险

[db:摘要]

牛津大学AI研究员在最新研究中发出警告,指出大型语言模型可能对科学完整性构成威胁。研究呼吁改变LLMs使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。然而,信任LLMs作为信息来源可能导致科学真相受损,因此呼吁负责任的LLMs使用。研究同时警告,如果LLMs在生成和传播科学文章中被随意使用,可能会导致严重危害。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/22246

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2023年11月24日
下一篇 2023年11月24日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注