震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

编辑:元宇 好困

【新智元导读】最近,Anthropic修改了他们的消费者协议,结果引发了网友们的强烈反应,甚至有人翻出了以前的“旧账”。到底这次的反应为何如此激烈?大家还记得Claude刚推出时,Anthropic曾坚决承诺不会使用用户的数据来训练模型。这次的变动不仅让他们自己打了脸,还把过去一些让用户不满的事情重新拿了出来。


最近,Anthropic对消费者条款的更新引起了网友的愤怒。

震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

在这次条款的调整中,Anthropic改变了之前绝对不使用用户数据训练模型的立场,给现有用户提出了一个二选一的选择:是否同意将自己的数据用于模型训练。

震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

表面上看,Anthropic似乎把选择的权利交给了用户,但其实只有一个月的时间来做决定。

对于Claude的新用户来说,他们在注册时必须做出选择;而对于老用户,他们必须在9月28日之前给出答案:

  • 如果在9月28日之前选择接受,那么这个更新就会立刻生效。值得注意的是,这些更新仅适用于新的或者重新发起的聊天和编程会话。
  • 标题:新变化!使用Claude的用户需注意这些细节

    • 从9月28日起,想继续使用Claude的朋友们,得在模型训练设置上做个选择哦。

    另外,这个条款还有一项新变化:

    • 如果选择让数据用于模型训练,数据的保存时间会延长到5年。不过,如果用户删除与Claude的对话,那些对话就不会被用于未来的模型训练啦;
    • 如果不想参与模型训练,现有的30天数据保留期依然适用。

    这里提到的消费级用户,是指所有使用Claude的免费版、专业版和Max版用户,包括使用Claude Code的朋友们。

    而那些使用Claude Gov、Claude for Work、Claude for Education,或者通过API接入的商业客户则不会受到这个影响。

    对于Anthropic的这一做法,网友们纷纷表示不满,觉得真是离谱啊!

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    不仅仅是政策,就连界面的设计也让人感觉像是随时可能掉入陷阱一样。

    Anthropic的奇葩操作让人哭笑不得!

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    说到这些“文字游戏”,如果你曾经在电脑上玩过软件,肯定会觉得有些眼熟吧。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    而且,Anthropic的这些奇葩举动可不止于此啊。

    网友「Ahmad」在推特上总结了一下,Anthropic到现在为止的“背刺”操作,真让人无奈:

    • 所有的对话和代码都要保存5年,居然还要用它们来训练模型。
    • 白天偷偷把用户的模型换成1.58 bit的“缩水版”,真是让人无从防范。
    • Plus会员居然在Claude Code里无法使用最强的Opus 4模型,这让人感觉不太公平。
    • 而在6周前,Max套餐的用量限制竟然被减少了一半,结果却没有任何通知,这简直让人摸不着头脑。
    • 而且每周的用量限制到底是多少,他们从来不说具体的数字,真让用户感到困惑。

    用户体验的真实反馈:我们能做些什么?

    • 宣传中的5倍或20倍用量套餐,实际上给的量却只有Plus套餐的3倍和8倍,这让人感到有些失望。
    • 随意发出DMCA通知,导致许多与Claude Code有关的代码仓库被下架,我的一个项目也因此受到了影响。
    • Windsurf的用户现在无法使用Claude 4,真是让人无奈。
    • 还切断了对OpenAI API的访问权限,这对很多开发者来说无疑是个坏消息。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    用户数据,真是大厂的“金矿”

    在Anthropic发布的关于这次政策更新的文章里,他们把这些变化说得像是给用户更多选择一样,表示:

    用户如果选择不退出,将有助于我们提升模型的安全性,让我们更准确地检测有害内容,并减少误标无害对话的几率。

    用户数据的背后,你知道多少?

    其实呢,接受了新政策的用户,Anthropic表示,这样做能让未来的Claude模型在编码、分析和推理等方面更加出色,最终带给大家更优质的体验。

    说白了,这些美好的承诺背后,其实并不那么简单。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    从整个行业来看,Anthropic这次对消费者条款的调整其实并不是个例。

    大模型想要变得更聪明,必须依赖于更多真实用户的数据进行训练。因此,各大模型公司都在绞尽脑汁争取用户的数据,以便能不断改进他们的模型。

    比如,谷歌最近也做了类似的调整,把「Gemini Apps Activity」改名为「Keep Activity」。谷歌表示,如果用户开启这个设置,从9月2日起,他们的一部分上传样本将会用来「帮助改进谷歌的服务」。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    就像谷歌、OpenAI等其他大模型公司一样,Anthropic对于数据的渴望,显然要比维护用户的品牌好感度来的更为迫切。

    Anthropic的变化让人感到失望

    你知道吗,Anthropic现在能接触到成千上万次Claude用户的互动,这其实为他们提供了更多真实编程环境中的数据,这样一来,他们的模型在与OpenAI和谷歌等竞争对手比拼时,可能就有了更大的优势。

    所以说,想必大家不难发现,Anthropic此次更新条款的真正意图,恐怕就是想要挖掘用户数据背后的那些“金矿”了。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    不满的声音越来越多

    过去,Anthropic最吸引人的地方就是他们对用户数据隐私的强烈承诺,这让很多人信任他们。

    自从Claude推出以来,Anthropic就一直声称不会利用用户的数据来训练他们的模型。

    而在之前,用户被告知他们的输入和对话内容会在30天内自动删除,除非法律规定需要保留更长时间,或者输入内容被判定为违规(在这种情况下,可能会保留长达两年)。

    现在,Anthropic却要求所有新老用户必须决定是否同意他们使用自己的数据来训练模型。

    而且,现有用户还必须在一个月内做出选择,数据的保留时间也被延长到了五年,这可让不少人感到不安。

    保护用户隐私,你准备好了吗?

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    你知道吗?这些用户数据可能会被用来训练模型,包括:

    所有相关的对话记录,任何内容或自定义的风格,还有使用Claude for Chrome时收集的信息。

    不过,这些数据并不包括来自像Google Drive这样的连接器的原始内容,或者远程和本地的MCP服务器内容,除非你直接复制到与Claude的对话中。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    谁来为你的隐私把关?

    这些大公司在逐步改变政策,究竟谁来捍卫我们的隐私呢?

    它们频繁的政策调整,让用户们感到困惑不已。

    而且,这些公司在更新政策时,似乎总是显得不那么明显。

    震惊!Claude聊天/代码默认全量喂AI训练,五年隐私将被曝光 – 今日头条

    我们来看看Anthropic最近的界面更新。

    当现有用户看到政策更新的弹窗时,首先映入眼帘的是一行大标题——「消费者条款和政策更新」,旁边有个显眼的黑色「接受」按钮,而按钮下方则有一小段文字和一个更小的切换开关,用于授予训练许可——而这个开关一开始就设定在「开启」状态。

    这种设计引发了不少人的担忧:

    许多用户可能在没意识到的情况下,就快速点击了「接受」,结果就同意了数据共享。

    Anthropic的政策变动,似乎也折射出整个行业在数据政策上的普遍趋势。

    从国外的AI行业来看,像Anthropic、OpenAI和谷歌这些大公司正在因为其数据处理方式而受到越来越多的关注和审视。

    比如,最近为了应对《纽约时报》的版权诉讼,OpenAI首次承认,从5月中旬开始,它一直在悄悄保存用户已删除或临时的聊天记录。

    消息一曝光,网友们都感到震惊:

    难道那些删掉的ChatGPT聊天记录都被你们存档了,等着法官来查吗?

    回到Anthropic这次消费条款的变化,它背后反映出公众对AI隐私的关注和担忧正在与日俱增。

    保护用户隐私,成大模型厂商的新挑战

    如今,用户数据已经成为推动大型模型竞争的关键要素。面对这种局面,各大模型公司必须找到在确保技术竞争力的同时,有效保护用户隐私的方法。这真的是一个不容小觑的挑战啊!

    参考资料:

    https://www.zdnet.com/article/anthropic-will-start-training-claude-on-user-data-but-you-dont-have-to-share-yours/

    https://www.theverge.com/anthropic/767507/anthropic-user-data-consumers-ai-models-training-privacy

    https://www.businessinsider.com/anthropic-uses-chats-train-claude-opt-out-data-privacy-2025-8

来源:今日头条
原文标题:最后通牒!Claude聊天/代码默认全喂AI训练,你的隐私能被用5年 – 今日头条
声明:
文章来自网络收集后经过ai改写发布,如不小心侵犯了您的权益,请联系本站删除,给您带来困扰,深表歉意!

发表评论