chatgpt上传私有数据需要训练吗 你的ChatGPT数据可以不被官方拿去训练模型了,代价是「只聊天不记录」

AI资讯1年前 (2023)发布 fengdao
24 0

出新规了。

似乎是为了应对数据隐私方面的争议,最新blog宣布了数据使用的新规则:

用户可以通过关闭聊天记录功能,来避免自己的个人数据被官方拿去训练。

现在在用户个人管理中,已经出现了一个关闭“Chat &”的选项。

只要点击取消,历史记录就被禁用了,新的对话也不会再存入聊天记录里。

但新的对话还是会在官方系统里留存30天,解释说:

只有在监控是否存在数据滥用时才会审查这些数据,30天后将永久删除。

同时还上线了一个导出聊天记录的功能,方便用户自己保存数据。

同样是出于数据保护方面的考虑,还表示将推出企业版( )。

这种版本面向的是对数据保护有更高要求的用户们,相关规则会和API用户的一致,也就是数据完全不会被拿去训练。

官方表示,预计这一版本将会在未来几个月内上线。

网友:这不极限二选一?

如上提到的用户数据被拿去训练,是对话能力提升的途径之一。

数据越多意味着模型能被训练地越精准、聪明。

但它同样牵扯到了用户的隐私安全保护问题。声明他们不会滥用收集到的数据,可还是在全球范围内引发了不小的担忧。

百度鹰眼上传数据_数据上传软件_chatgpt上传私有数据需要训练吗

由此这次用户数据安全新规推出,不少人都点赞了。

表示这确实能在更大程度上保护个人隐私,同时又不会免费为新模型训练提供数据。

还有一部分人想着“既要又要”:

为什么不能既保留聊天记录,又不拿数据训练?

也有人表示,自己之前就填写了表单,表示不愿意被使用数据,那么现在这部分人会受到什么影响吗?

官方表示他们还会尊重之前申请用户的意愿,新的方法只是将关于训练数据这个过程变得更简单了些。

此前开放了一个表单,供不愿意个人数据被拿去训练的用户填写申请。

与此同时他们也提醒用户,如果自己使用了一些插件/软件恶意抓取用户数据,新功能是干预不了的。

有人就发现当自己关闭数据训练后,一些插件也消失了。这可能就是为了避免数据在其他地方泄露采取的应对策略。

值得一提的是,这不是第一次调整隐私数据使用规则了。

3月1日开始,所有调用API接口的用户数据,将不再被用于模型训练,除非用户自愿提供。

在此之前,如果用户没有特殊要求,默认数据也是会被拿去训练的。

调整后,API接口用户发出的数据同样会被放在系统内保存30天,应对一些监测审查。

调用API后的数据传输是加密的,但数据都会在美国保存和处理。

chatgpt上传私有数据需要训练吗_百度鹰眼上传数据_数据上传软件

欧洲成立特别工作组

之所以在几个月内频繁地发布数据隐私方面的公告,主要原因或许还是的数据使用已经引发了不小恐慌。

最先“发难”的是意大利,他们以违反欧洲数据隐私法GDPR为由,暂时禁止了。该国监管机构命令停止从意大利客户收集数据,并披露纠正该国独立机构提出投诉的步骤。

之后德国、法国、西班牙等也传出了或将加入这一阵营的消息。

4月13日,欧洲各国监管机构表示已就成立了一个特别工作小组。这意味着制定人工智能隐私规范共同政策,或将迈出重要一步。

这种隐私数据方面的担忧,不仅来自于的数据收集使用方式,还有一部分原因是用户导致的。

随着越来越多人将加入工作流,上传的数据中难免会夹带公司机密。

有人就表示自己听说有科技巨头员工把产品代码全上传了。

所以,及时给员工制定使用规范,成为当下不少企业都在考虑的事。

比如三星就被传出过因数据泄露的消息,软银、台积电等企业目前也对员工使用提出了要求。

总之,在改变工作方式、改变世界的同时,制定出合理的数据隐私规范,也迫在眉睫了。

参考链接:

[1]

[2]

[3]

[4]

本文来自微信公众号“量子位”(ID:),作者:明敏,36氪经授权发布。

© 版权声明

相关文章

暂无评论

暂无评论...