一个技术提示:不想让聊天机器人使用你的对话进行 AI 训练?有些机器人允许你选择退出
和聊天机器人说话时要小心谨慎。你的对话可能会被用来改进它所依赖的人工智能系统。如果你向 ChatGPT 咨询有关你尴尬的健康状况的建议,请注意,你透露的任何信息都可能被用来调整 OpenAI 的 AI 模型所依赖的算法。例如,如果你将一份敏感的公司报告上传到 Google 的 Gemini 以供会议总结,情况也是如此。
众所周知,流行聊天机器人所依赖的人工智能模型已经接受了从互联网上抓取的大量信息(如博客文章、新闻文章和社交媒体评论)的训练,因此它们可以在回答你的问题时预测下一个词。
这种训练通常是在未经同意的情况下进行的,从而引发了版权问题。专家表示,鉴于人工智能模型的不透明性,删除可能被使用的任何数据可能为时已晚。
但接下来你可以做的是停止将聊天机器人的任何交互用于 AI 训练。这并不总是可行的,但有些公司会为用户提供以下选项:
谷歌双子座
谷歌会保存您与 Gemini 聊天机器人的对话,以训练其机器学习系统。对于 18 岁或以上的用户,聊天记录默认保存 18 个月,但可以在设置中调整。人工审核人员也可以访问对话,以提高 Gemini 生成 AI 模型的质量。谷歌警告用户不要告诉 Gemini 任何机密信息,也不要向其提供他们不想让人工审核人员看到的任何数据。
要退出此功能,请访问 Gemini 网站并点击“活动”选项卡。点击“关闭”按钮,从下拉菜单中,您可以选择停止记录所有未来聊天或删除所有之前对话。该公司警告称,任何被选中进行人工审核的对话都不会被删除,而是单独存储。无论您选择关闭活动还是保持活动,Google 还表示,与 Gemini 的所有聊天都将保留 72 小时,以“提供服务并处理任何反馈”。
Gemini 的帮助页面还详细介绍了 iPhone 和 Android 应用程序用户的使用流程。
元人工智能
Meta 拥有一个人工智能聊天机器人,该机器人已加入 Facebook、WhatsApp 和 Instagram 上的对话,由其开源人工智能语言模型提供支持。该公司表示,这些模型是根据其平台上共享的信息(包括社交媒体帖子、照片和标题信息)进行训练的,但不包括您与朋友和家人的私人消息。它们还根据“第三方”从网络其他部分抓取的公开信息进行训练。
并非所有人都可以选择退出。欧盟 27 国和英国的公民有严格的隐私规定,他们有权反对自己的信息被用于训练 Meta 的 AI 系统。在 Facebook 隐私页面,点击左侧列表中的其他政策和文章,然后点击生成 AI 部分。向下滚动以找到可以提出反对意见的表单链接。
有一个框需要填写其他信息以支持您的请求,但没有关于您应该说什么的详细信息。我写道,我正在行使我作为英国居民的权利,撤回同意将我的个人信息用于人工智能训练的权利。我几乎立即收到一封电子邮件,说 Meta 已经审查了该请求,并将尊重我的反对意见。“这意味着您的请求将在未来得到应用,”它说。
美国和其他没有国家数据隐私法的国家的人们没有这种选择。
Meta 的隐私中心确实链接到一个表格,用户可以在其中请求第三方不将他们的数据用于“开发和改进 Meta 的人工智能”。但该公司警告说,它不会自动满足请求,并将根据当地法律进行审查。这个过程本身很麻烦,需要用户向聊天机器人提供产生响应的请求,其中包含他们的个人信息和屏幕截图。
微软 Copilot
个人用户无法选择退出。您能做的最好的事情就是通过转到 Microsoft 帐户的设置和隐私页面删除与 Copilot 聊天机器人的互动。查找标有 Copilot 互动历史记录或 Copilot 活动历史记录的下拉菜单以找到删除按钮。
OpenAI 的 ChatGPT
如果你有 OpenAI 账户,请转到Web 浏览器上的“设置”菜单,然后转到“数据控制”部分,在那里你可以禁用“为所有人改进模型”设置。如果你没有账户,请点击网页右下角的小问号,然后点击“设置”,你就会得到相同的退出 AI 训练选项。移动用户可以在 ChatGPT Android 和 iOS 应用程序上做出同样的选择。
OpenAI 在其数据控制帮助页面上表示,当用户选择退出时,他们的对话仍会出现在聊天记录中,但不会用于训练。这些临时聊天记录将保留 30 天,仅在需要监控滥用行为时才会进行审查。
格罗克
埃隆·马斯克的 X 悄悄启动了一项设置,允许亿万富翁特斯拉首席执行官的人工智能聊天机器人 Grok 使用来自社交媒体平台的数据进行训练。此设置已默认启用,允许 Grok 使用包括您的帖子、“互动、输入和结果”在内的数据进行训练和“微调”。
这一变化并未公开,直到 7 月份 X 用户发现后才曝光。要选择退出,您需要转到X 桌面浏览器版本的设置,然后单击“隐私和安全”,向下滚动到“Grok”,然后取消勾选该框。您还可以删除与 Grok 的对话历史记录(如果有)。遗憾的是,无法通过 X 移动应用程序执行此操作。
克劳德
Anthropic AI 表示,其聊天机器人 Claude 并未接受个人数据训练。默认情况下,它也不会使用问题或请求来训练其 AI 模型。但是,用户可以通过点赞或点踩或给公司发送电子邮件来“明确允许”在训练中使用特定答案。标记为需要进行安全审查的对话也可用于训练公司的系统,以更好地执行其规则。
页:
[1]