的存在是网络上广泛讨论的话题,但它有一些不容忽视的隐私影响。 和类似的聊天机器人近期因为能够强化工作流程和处理繁重的工作而大受欢迎,而 的大型语言模型(LLM)被称为 GPT,也被用来作为开发无数实用应用程序的框架。但与此同时,生成式 AI 因使用公开可用但受版权保护的信息并依靠用户数据训练自家聊天机器人而引起人们的注意。
最近为用户添加了禁用聊天记录和删除聊天记录的选项,如果你重视自己的隐私,那么绝对值得你检查这些选项。但这也引出一个关键问题: 是如何使用你的数据呢?它究竟从你的聊天记录中利用了什么?
与类似的 AI 如何使用你的聊天记录?
等生成式 AI 模型据称会随着更多用户与它们的交流而进化。在其支持页面之一中, 承认使用用户数据(例如提示、后续响应、影像和其他生成的响应)以更准确地解决你的特定问题。这些数据使用规则适用于 和 的图像生成工具 DALL-E。
表示,这些数据不用于广告或为定向广告构建设置文件。它指出,通过人们与它的对话进一步训练来改进,除非你选择禁用训练。 的数据使用政策进一步提到,从它通过 或 DALL-E 存储的交互数据中,它会在使用数据之前采取措施清除里面的个人信息。但是,任何不相信 坚持良善意图的人都可以使用最近添加的选项在 上禁用数据记录和共享。
那么,使用 旗下 API 的应用程序呢?
除了由自家应用程序处理的数据外,还澄清说,利用其 API 的应用程序数据也不会取用,例如 上的 Siri 替代品。这表示该公司不会使用或存储来自使用的GPT-3.5-turbo或GPT-4模型为其应用程序提供支持的任何第三方的数据,除非你明确选择将自己的数据用于改进此类应用程序。即使你自愿交出数据, 也声称仅将其保留 30 天,然后全数删除,但是,如果法律要求,它也可以储存这些数据。
此外,表示,使用 API的对话请求和响应是使用SSL或TLS加密,但是,这并不能保证你使用的应用程序不会偷偷记录你的对话,可以肯定的是,你必须单独检查每个应用程序的数据运用策略。值得注意的是,第三方工具可能会使用与你的 账户不同登录帐号进行操作,并可能储存其中的详细信息,包括你的个人数据以及你如何与该工具进行互动的记录。
谁可以查看你的 资料?
承认它的数据可能会与他人共享,根据官方说法,这些内容会与「一组协助提供服务、值得信赖的精选服务提供商」共享。虽然该文件没有具体说明与提及是哪些合作伙伴,但微软很有可能是其中之一。
微软是 的最大利益相关者,并使用最新的 GPT-4 模型为其 Bing Chat 服务提供支持。当共同创立这家初创公司的 Elon Musk 在他离开同时放弃提供 1 亿美元基金的承诺时,情况就出现了。 的所有聊天都是通过微软的 Azure 云服务器执行,该公司被列为 的子处理器之一,根据「子处理器」的定义,微软可以访问其数据中心处理的数据。微软还向企业用户提供 Azure 服务,允许他们将 和 DALL-E 集成到他们的工作流程中。数据由 储存, 是一家总部位于美国的云服务公司,提供数据储存的服务。
承认,公司内部「有限数量的授权人员」可以查看和分析用户数据,这些数据可用于调整回复、标记滥用或安全漏洞,为特定问题提供支持或遵守法律要求。这些数据仅在「需要知道的基础上」提供给授权员工,但无法获得更多详细信息。关于的API,该公司表示,部分员工「以及受保密和安全义务约束的专业第三方承包商」可以访问用户数据,但这是为了帮助他们调查和评估滥用事件,此类资料也可能保留超过30天的预设期限。
我的数据在 安全吗?
这个问题真是不好回答,你的信心可能取决于你对 和其合作伙伴(如微软、)的信任度。无论该公司的出发点是什么,在 2023 年 3 月时曾蒙受安全事件,将用户的聊天记录暴露给其他人。 首席执行官 Sam 通过 上表示,这个问题是由于开放数据库中的一个错误而发声,但并没有说明更多细节。在披露该事件的博客文章中,还谈到了相同的毛病如何意外地向错误用户发送订阅电子邮件泄漏一些付费用户信用卡号最后四位数的问题。
声称已经修复这个错误,并且开设了一个漏洞赏金计划,为漏洞猎人提供高达 2 万美元的奖励。尽管如此,在与 或任何类似的 AI 聊天机器人对话时共享任何个人信息(例如你的姓名、地址、电话号码、银行卡号或财务详细信息)我劝你还是不要。如果你与聊天机器人共享了任何私人信息, 还为你提供了删除账户的选项。为了回应意大利的临时禁令,增加了一个选项,允许注重隐私的用户阻止 储存对话内容。如果你还希望公司不储存或使用你的聊天来训练其 AI,则可以清除现有对话并禁用记录功能。
本号所有资源仅供学习使用,若想体验更多,请支持正版!