ChatGPT等大型语言模型在训练过程中会记住一定数量的原始训练数据,攻击者可以通过特定的攻击方法,从模型中提取大量训练数据,威胁数据所有者的隐私。研究人员建议开发和使用大型语言模型时,应做好数据安全保护措施,防止数据泄漏。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21988
该文观点仅代表作者本人,平台仅提供信息存储空间服务。
[db:摘要]
ChatGPT等大型语言模型在训练过程中会记住一定数量的原始训练数据,攻击者可以通过特定的攻击方法,从模型中提取大量训练数据,威胁数据所有者的隐私。研究人员建议开发和使用大型语言模型时,应做好数据安全保护措施,防止数据泄漏。
本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/21988
该文观点仅代表作者本人,平台仅提供信息存储空间服务。