anthropic 全面向中国开火
帖子标题 anthropic 全面向中国开火
帖子ID
434399
============================================================================== [旧摘要 - 已被纳入的内容] ============================================================================== Anthropic因指控中国AI公司盗取数据引发争议,用户将其比作“美国360”,并讨论其与政府合作及CEO的个人立场。
1. 关键信息
- (之前已归纳)Anthropic 指控中国AI公司不当获取数据: Anthropic 指控深度求索、月之暗面和稀宇科技利用虚假账号与其模型Claude对话,以训练自己的聊天机器人,并认为此行为构成国家安全风险。
- (之前已归纳)Anthropic 限制中国用户访问: Anthropic 更新销售限制,将中国列为不支持地区,理由是法律、监管和安全风险。
- (之前已归纳)招聘流程争议: 用户普遍吐槽 Anthropic 的招聘流程“毒”,要求提交高中成绩单、高考分数等,认为这是“筛选”的一种方式。
- (之前已归纳)AI 安全与反华言论: Anthropic CEO 及其公司被指责“全面向中国开火”,将中国描述为“敌对国”或“威胁”。
- (之前已归纳)Claude 模型表现: 部分用户认为 Claude Code 模型在编程辅助方面表现出色,是高效工具。但也有用户反映近期出现“降智”现象,Recall rate 下降。
- (之前已归纳)中国 AI 发展: 用户对中国 AI 行业发展表示乐观,期待国产模型(如 DeepSeek、Qwen、Kimi/GLM)能超越国外模型。
- (之前已归纳)数据安全与隐私: 用户担心 Anthropic 的数据使用政策,尤其是在企业用户方面,对数据是否会被用于模型训练表示疑虑。
- (之前已归纳)地缘政治影响: 讨论中提及 Anthropic CEO 曾在中国百度工作过的经历,猜测其对华态度可能与此有关。用户批评美国在 AI 领域的双重标准。
- (之前已归纳)遵守服务条款: 有用户指出,中国实体使用 Anthropic 服务本来就违反其服务条款 (TOS)。
- (之前已归纳)模型性能对比: 用户对比了 Opus Max 和其他模型,认为 Opus Max 在月底用量不足时,与其他模型相比存在明显差距,但仍是“一个天上一个地下”的优秀模型。
- (之前已归纳)AI 驱动的网络攻击报告: Anthropic 发布报告,声称中国黑客利用其 AI 技术发动了首例 AI 驱动的网络间谍活动。
- (之前已归纳)与美国国防部的合作: Wall Street Journal 报道称五角大楼在委内瑞拉的行动中使用了 Anthropic 的 Claude 模型。
- (之前已归纳)新增: 有用户将 Anthropic 比作“美国360”,暗示其在内容审查和自我定位上的倾向。
- (之前已归纳)新增: 有用户认为 Palantir (PLTR) 在为政府打工的生态位上更符合 Anthropic 的形象,而非百度。
- (之前已归纳)新增: 用户提及百度已被 OpenAI 预定,并认为百度和 OpenAI 都是 Dario(推测为Anthropic CEO Dario Amodei)所讨厌的公司。
- 新增: 用户分享了一张图片(未具体描述内容),并引用了 NPR 的新闻链接,暗示特朗普(川建国同志)显然也不喜欢 Anthropic,并提到了 AI 武器禁令的讨论。
- 新增: BBC News 中文报道,五角大楼将 AI 公司 Anthropic 列为供应链风险,这是美国首次针对本土企业作出此类标注,该公司或面临起诉。
2. 羊毛/优惠信息
- (之前已归纳)低价嫖 Claude: 有用户询问是否有低价嫖 Anthropic Plus 或 Pro 的方法。
- (之前已归纳)企业用户报价: 有用户提到朋友的公司获得 Anthropic 的优惠报价,但对数据使用政策存疑。
- 无
3. 最新动态
- (之前已归纳)Anthropic 指控中国公司不当获取数据: 新增的指控是 Anthropic 在AI安全和数据使用方面的最新动态。
- (之前已归纳)AI 驱动的网络攻击报告: Anthropic 发布相关报告。
- (之前已归纳)与美国国防部的合作: 涉及Anthropic模型在军事行动中的应用。
- (之前已归纳)新增: 用户对 Anthropic 的自我定位和潜在审查倾向的评论,并将其与“美国360”和Palantir进行类比。
- (之前已归纳)新增: 用户将百度与 OpenAI 并列,并称两者皆为 Dario 所厌恶,暗示了 Dario 对某些公司或其行为的负面看法,以及百度与 OpenAI 之间的潜在联系或竞争关系。
- (之前已归纳)新增: 特朗普对 Anthropic 的负面看法被提及,并与 AI 武器禁令的新闻相关联,显示 Anthropic 的争议已延伸至政治层面。
- 新增: 五角大楼将 Anthropic 列为供应链风险,标志着美国政府对本土 AI 公司的监管升级,该公司可能面临法律诉讼。
4. 争议或不同意见
- (之前已归纳)招聘流程的合理性: 部分用户认为 Anthropic 的招聘流程是其“筛选”机制,虽然严苛但有其逻辑。
- (之前已归纳)Anthropic 的反华立场: 用户对 Anthropic 的反华言论和政策存在严重分歧,有人认为这是“帝国 propaganda”,有人认为这是“意识形态之争”。
- (之前已归纳)Claude 模型的“降智”问题: 用户对 Claude 模型近期表现的下降程度和原因存在讨论,有人认为与使用中文有关。
- (之前已归纳)公司对调查候选人的执念。
- (之前已归纳)模型性能对比的观点: 用户对 Opus Max 的性能评价存在一定主观性,尽管认为其优秀,但与其他模型对比时,其相对优势和劣势仍有讨论空间。
- (之前已归纳)新增争议: Anthropic 的指控可能加剧其与中国AI公司及政府之间的紧张关系,并可能引发关于数据主权和国际AI合作的新一轮辩论。
- (之前已归纳)新增争议: 用户将 Anthropic 与“美国360”类比,暗示其存在内容审查或特定意识形态立场,并认为Palantir(PLTR)更符合为政府打工的定位。
- (之前已归纳)新增争议: 用户将百度与 OpenAI 联系起来,并提及 Dario 的厌恶,引发对 Dario 个人立场、百度与 OpenAI 关系以及 Dario 对这两家公司看法的猜测。
- 新增争议: 特朗普对 Anthropic 的负面看法,以及其与 AI 武器禁令的关联,表明 Anthropic 在地缘政治和技术伦理方面面临多方质疑。
- 新增争议: 五角大楼将 Anthropic 列为供应链风险,暗示了其在政府合作中的潜在问题,以及可能引发的法律和监管挑战,这与之前讨论的“为政府打工”的定位相呼应。
5. 行动建议
- (之前已归纳)尝试国产开源模型: 建议用户尝试 Kimi/GLM/Qwen 等国产开源模型,并表示它们在特定工作流上可能完全取代 Claude。
- (之前已归纳)警惕数据使用政策: 对于企业用户,建议仔细询问 Anthropic 关于数据使用和模型训练的政策。
- (之前已归纳)关注 AI 安全与地缘政治: 讨论反映出 AI 领域与地缘政治紧密相关,用户应关注相关信息和发展。
- (之前已归纳)抵制不合理政策: 有用户明确表示坚决不用 Anthropic 的产品,以示对公司政策的不满。
- (之前已归纳)理解并遵守服务条款。
- (之前已归纳)关注模型使用成本与性能平衡: 用户在选择 AI 模型时,应根据实际需求(如月底用量不足时)综合考虑性能、成本及可用性。
- (之前已归纳)新增建议: 鉴于Anthropic的指控,中国AI公司可能需要更谨慎地处理数据获取和模型训练过程,并加强数据安全措施。用户在评估AI模型时,应关注其数据来源的合规性。
- (之前已归纳)新增建议: 用户应警惕并关注 AI 公司在内容审查和自我定位上的潜在倾向,避免被卷入地缘政治的意识形态争端。
- (之前已归纳)新增建议: 用户应认识到 Anthropic 的行为可能被视为“为政府打工”的体现,并将其与Palantir等公司进行类比。
- (之前已归纳)新增建议: 用户应关注 Dario 对百度和 OpenAI 的态度,以及这两家公司可能存在的联系或竞争,这有助于理解 AI 领域内复杂的人物关系和商业动态。
- 新增建议: 关注特朗普对 Anthropic 的态度及其背后可能的地缘政治和 AI 武器管控的讨论,以便更全面地理解 Anthropic 在国际舞台上的角色和面临的挑战。
- 新增建议: 鉴于五角大楼将 Anthropic 列为供应链风险,用户在与政府合作的 AI 项目中,应更加关注供应商的合规性和潜在风险。
============================================================================== [新增回复内容] ==============================================================================
新增回复数
1
================================================================================
================================================================================ --- 第 105 楼来自 bravefilm 的回复 (2026-03-08 16:22:15 PDT) --- 五角大楼将AI公司Anthropic列为供应链风险,或遭起诉
BBC News 中文 – 6 Mar 26
人工智能和军事:五角大楼将AI公司Anthropic列为供应链风险,或遭起诉 - BBC News 中文
将这家人工智能公司列为供应链风险,是美国首次针对本土企业作出此类标注。你是一个论坛内容总结助手。我上传了一个论坛帖子的完整内容文件,包括所有楼层的回复。你要对内容进行仔细分析和思考,联系上下文,注意玩卡领域的黑话(不要错过,也不要乱猜,不过不能从上下文获知可以直接引用黑话)。 输出的内容要简短,而不失信息和细节。
如果不是信用卡、购物超低折扣、积分相关,那么总结可以更加简短(类似简讯即可)。
第一行必须是简洁的主题概述(100字以内),直接说明帖子讨论的核心内容和结论(如果有)。不要有任何前缀如"本帖主要讨论"、"这个帖子",“帖子讨论了”,“大家讨论了”等无用的开头词。 这句话要让读者一眼就知道是否对内容感兴趣。
请严格按照以下格式输出总结:
简洁的主题概述(要求上面已经提到)
1. 关键信息
- 重要的数据点、经验分享或结论
- 用户提到的具体案例和数据点
2. 羊毛/优惠信息
- 信用卡优惠、返现活动、积分兑换技巧、超值价、bug价、限时折扣等(如有)
- 如果没有相关信息,写"无"
3. 最新动态
- 最近的更新或变化(优惠失效、政策变更等)
- 如果没有相关信息,写"无"
4. 争议或不同意见
- 不同的看法或经验(简要列举)
- 如果没有争议,写"无明显争议"
5. 行动建议
- 基于讨论内容,值得注意或尝试的具体建议
任务:增量更新帖子总结
你将收到以下内容结构: 1. 帖子基本信息 2. [旧摘要 - 已被纳入的内容] - 这是该帖子之前的AI总结 3. [新增回复内容] - 这是该帖子新增加的回复
你的任务: 1) 理解旧摘要所总结的核心观点、用户意见等 2) 阅读新增回复,分析并归纳新增回复,还要结合旧摘要一起分析理解上下文 3) 合并这两部分,生成一份完整更新的总结 要求: - 保持风格一致:采用与旧摘要相同的结构和语言风格,将新增的内容append到已有的内容里 - 关于新信息:确保新增回复提供的新观点、数据、结论等被妥善纳入 - 关于已有的摘要中的信息:必须要保留,你可以在每条已有的信息前,加上(之前已归纳)的字样 - 逻辑清晰:摘要应该流畅地反映讨论的演进过程(从旧摘要到新增内容) - 新摘要的字数应该比旧摘要多,这样才能体现增量总结。不能新摘要比旧摘要字数少- 不必搞形式主义,总结出很多小的但是没什么信息量的 新增内容- 可以把已有内容进行合并(但不丢失信息),减少bullet points- 新增内容也考虑适当合并(但不丢失信息),减少bullet points- 对于超过3天以上的内容,可以考虑压缩合并,并在前面加上(3天前内容,已概括总结)的字样。如果你能分辨时间。如果做不到就算了,不要乱猜时间
Anthropic因指控中国AI公司盗取数据及与美政府合作受争议,现被五角大楼列为供应链风险,或面临起诉。
1. 关键信息
- (之前已归纳)Anthropic 指控中国AI公司不当获取数据: Anthropic 指控深度求索、月之暗面和稀宇科技利用虚假账号与其模型Claude对话,以训练自己的聊天机器人,并认为此行为构成国家安全风险。
- (之前已归纳)Anthropic 限制中国用户访问: Anthropic 更新销售限制,将中国列为不支持地区,理由是法律、监管和安全风险。
- (之前已归纳)招聘流程争议: 用户普遍吐槽 Anthropic 的招聘流程“毒”,要求提交高中成绩单、高考分数等,认为这是“筛选”的一种方式。
- (之前已归纳)AI 安全与反华言论: Anthropic CEO 及其公司被指责“全面向中国开火”,将中国描述为“敌对国”或“威胁”。
- (之前已归纳)Claude 模型表现: 部分用户认为 Claude Code 模型在编程辅助方面表现出色,是高效工具。但也有用户反映近期出现“降智”现象,Recall rate 下降。
- (之前已归纳)中国 AI 发展: 用户对中国 AI 行业发展表示乐观,期待国产模型(如 DeepSeek、Qwen、Kimi/GLM)能超越国外模型。
- (之前已归纳)数据安全与隐私: 用户担心 Anthropic 的数据使用政策,尤其是在企业用户方面,对数据是否会被用于模型训练表示疑虑。
- (之前已归纳)地缘政治影响: 讨论中提及 Anthropic CEO 曾在中国百度工作过的经历,猜测其对华态度可能与此有关。用户批评美国在 AI 领域的双重标准。
- (之前已归纳)遵守服务条款: 有用户指出,中国实体使用 Anthropic 服务本来就违反其服务条款 (TOS)。
- (之前已归纳)模型性能对比: 用户对比了 Opus Max 和其他模型,认为 Opus Max 在月底用量不足时,与其他模型相比存在明显差距,但仍是“一个天上一个地下”的优秀模型。
- (之前已归纳)AI 驱动的网络攻击报告: Anthropic 发布报告,声称中国黑客利用其 AI 技术发动了首例 AI 驱动的网络间谍活动。
- (之前已归纳)与美国国防部的合作: Wall Street Journal 报道称五角大楼在委内瑞拉的行动中使用了 Anthropic 的 Claude 模型。
- (之前已归纳)新增: 有用户将 Anthropic 比作“美国360”,暗示其在内容审查和自我定位上的倾向。
- (之前已归纳)新增: 有用户认为 Palantir (PLTR) 在为政府打工的生态位上更符合 Anthropic 的形象,而非百度。
- (之前已归纳)新增: 用户提及百度已被 OpenAI 预定,并认为百度和 OpenAI 都是 Dario(推测为Anthropic CEO Dario Amodei)所讨厌的公司。
- (之前已归纳)新增: 用户分享了一张图片(未具体描述内容),并引用了 NPR 的新闻链接,暗示特朗普(川建国同志)显然也不喜欢 Anthropic,并提到了 AI 武器禁令的讨论。
- 新增: BBC News 中文报道,五角大楼将 AI 公司 Anthropic 列为供应链风险,这是美国首次针对本土企业作出此类标注,该公司或面临起诉。
2. 羊毛/优惠信息
- (之前已归纳)低价嫖 Claude: 有用户询问是否有低价嫖 Anthropic Plus 或 Pro 的方法。
- (之前已归纳)企业用户报价: 有用户提到朋友的公司获得 Anthropic 的优惠报价,但对数据使用政策存疑。
- 无
3. 最新动态
- (之前已归纳)Anthropic 指控中国公司不当获取数据: 新增的指控是 Anthropic 在AI安全和数据使用方面的最新动态。
- (之前已归纳)AI 驱动的网络攻击报告: Anthropic 发布相关报告。
- (之前已归纳)与美国国防部的合作: 涉及Anthropic模型在军事行动中的应用。
- (之前已归纳)新增: 用户对 Anthropic 的自我定位和潜在审查倾向的评论,并将其与“美国360”和Palantir进行类比。
- (之前已归纳)新增: 用户将百度与 OpenAI 并列,并称两者皆为 Dario 所厌恶,暗示了 Dario 对某些公司或其行为的负面看法,以及百度与 OpenAI 之间的潜在联系或竞争关系。
- (之前已归纳)新增: 特朗普对 Anthropic 的负面看法被提及,并与 AI 武器禁令的新闻相关联,显示 Anthropic 的争议已延伸至政治层面。
- 新增: 五角大楼将 Anthropic 列为供应链风险,标志着美国政府对本土 AI 公司的监管升级,该公司可能面临法律诉讼。
4. 争议或不同意见
- (之前已归纳)招聘流程的合理性: 部分用户认为 Anthropic 的招聘流程是其“筛选”机制,虽然严苛但有其逻辑。
- (之前已归纳)Anthropic 的反华立场: 用户对 Anthropic 的反华言论和政策存在严重分歧,有人认为这是“帝国 propaganda”,有人认为这是“意识形态之争”。
- (之前已归纳)Claude 模型的“降智”问题: 用户对 Claude 模型近期表现的下降程度和原因存在讨论,有人认为与使用中文有关。
- (之前已归纳)公司对调查候选人的执念。
- (之前已归纳)模型性能对比的观点: 用户对 Opus Max 的性能评价存在一定主观性,尽管认为其优秀,但与其他模型对比时,其相对优势和劣势仍有讨论空间。
- (之前已归纳)新增争议: Anthropic 的指控可能加剧其与中国AI公司及政府之间的紧张关系,并可能引发关于数据主权和国际AI合作的新一轮辩论。
- (之前已归纳)新增争议: 用户将 Anthropic 与“美国360”类比,暗示其存在内容审查或特定意识形态立场,并认为Palantir(PLTR)更符合为政府打工的定位。
- (之前已归纳)新增争议: 用户将百度与 OpenAI 联系起来,并提及 Dario 的厌恶,引发对 Dario 个人立场、百度与 OpenAI 关系以及 Dario 对这两家公司看法的猜测。
- (之前已归纳)新增争议: 特朗普对 Anthropic 的负面看法,以及其与 AI 武器禁令的关联,表明 Anthropic 在地缘政治和技术伦理方面面临多方质疑。
- 新增争议: 五角大楼将 Anthropic 列为供应链风险,暗示了其在政府合作中的潜在问题,以及可能引发的法律和监管挑战,这与之前讨论的“为政府打工”的定位相呼应。
5. 行动建议
- (之前已归纳)尝试国产开源模型: 建议用户尝试 Kimi/GLM/Qwen 等国产开源模型,并表示它们在特定工作流上可能完全取代 Claude。
- (之前已归纳)警惕数据使用政策: 对于企业用户,建议仔细询问 Anthropic 关于数据使用和模型训练的政策。
- (之前已归纳)关注 AI 安全与地缘政治: 讨论反映出 AI 领域与地缘政治紧密相关,用户应关注相关信息和发展。
- (之前已归纳)抵制不合理政策: 有用户明确表示坚决不用 Anthropic 的产品,以示对公司政策的不满。
- (之前已归纳)理解并遵守服务条款。
- (之前已归纳)关注模型使用成本与性能平衡: 用户在选择 AI 模型时,应根据实际需求(如月底用量不足时)综合考虑性能、成本及可用性。
- (之前已归纳)新增建议: 鉴于Anthropic的指控,中国AI公司可能需要更谨慎地处理数据获取和模型训练过程,并加强数据安全措施。用户在评估AI模型时,应关注其数据来源的合规性。
- (之前已归纳)新增建议: 用户应警惕并关注 AI 公司在内容审查和自我定位上的潜在倾向,避免被卷入地缘政治的意识形态争端。
- (之前已归纳)新增建议: 用户应认识到 Anthropic 的行为可能被视为“为政府打工”的体现,并将其与Palantir等公司进行类比。
- (之前已归纳)新增建议: 用户应关注 Dario 对百度和 OpenAI 的态度,以及这两家公司可能存在的联系或竞争,这有助于理解 AI 领域内复杂的人物关系和商业动态。
- 新增建议: 关注特朗普对 Anthropic 的态度及其背后可能的地缘政治和 AI 武器管控的讨论,以便更全面地理解 Anthropic 在国际舞台上的角色和面临的挑战。
- 新增建议: 鉴于五角大楼将 Anthropic 列为供应链风险,用户在与政府合作的 AI 项目中,应更加关注供应商的合规性和潜在风险。
anthropic.com
Updating restrictions of sales to unsupported regions
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
被爬虫搞怕了可能
38746824-44dc1c64-3f7b-11e8-94f0-021bf6e01e94580×596 54.1 KB
明天还面他们家,虽然就是重在参与
投简历还要写小作文这个歪风是不是a家开始的
马鬃早就有了
technical writing
哈哈哈哈哈他们自己的爬虫才可怕吧
Canonical:发一下你的高中成绩单
jerry。ai :你高考多少分
image1100×723 49.2 KB
高考也可以
https://www.reddit.com/r/recruitinghell/comments/15kj845/canonical_the_recruitment_process_really_is_that/
以及招聘小传之小作文环节
我对他家的印象就是不允许多个用户登录一个账号。之前本来想跟人拼团,结果登了就会把对面的退掉,格局比gpt差远
Canonical 这个 hiring process 已经是出名了,不知道被婊了多少次但是依然我行我素,只能说这就是筛选。但是 Canonical 的 TC 听说不怎么样。
那他家毕竟remote from anywhere……要不是hiring这么毒我觉得还是ok的
但是这个 base 在美国完全没有竞争力
h1bdata.info
Canonical Usa Inc H1B Salary all years
Canonical usa inc H1-B Salary
但是你可以在除了美国的其它能拿到居住权的国家干啊,何必呆在美国
主要还是这么粪的招聘流程很难想象里面的人……
另外看h1-b没意义的,他们基本不支持工签我记得
【引用自 austurela】:
被爬虫搞怕了可能
你看这篇文章怎么写的可能就不会这么说了
以及anthropic自己的爬虫写得烂的一批
那说明其他国家的 TC 更低,因为大概率是按比例来砍的
这傻b CEO一天跟吃了疯狗der似的追着中国咬,公司Logo是个屁眼儿,公司文化跟邪教一样魔怔,早晚必死。
爱国归爱国,他们家的claude code我年中开始用,现在暂时还找不到替代品。确实提升了不少工作效率。真纠结,一边看着这个反中公司整天搞事情,一边还离不开还得交钱。
妈的气死了,等DeepSeek新版出来,把你们美国人工智障全杀了。
【引用自 dareal】:
这傻b CEO
之前还在Baidu工作过
【引用自 无能狂怒】:
claude code
比gemini cli好用很多吗
用户名非常写实
CC 强太多了
什么 投a家还要写小作文
不过a家独到的一点是他们会公开ai安全的文章 也持续做了几年了
科研狗从他们的papers里还是获取了不少ideas
IMG_23001206×1855 383 KB
anthropic还是把自己看得太重要了
傻子都不会用外国闭源模型服务军队好吧
有点像虚空索敌
这里说的是用 Claude 来辅助训练给军方用的模型,并不是说给军方直接用 Claude
这个
我好像说的也是服务军队吧
like literally translated from “serve adversarial military”
不知道在Baidu 的时候发生了啥
你说的是用闭源模型服务军队,我说的是并不是直接拿 Claude (你说的闭源模型)给军队用,而是可能用 Claude 来帮助训练专门给军队用的模型,方法有可能类似之前华为用的蒸馏。这种情况大概率是已经发生了。
200套餐用了十几万刀的也是中国人拿去二次销售了
可以吧。我朋友买了200套餐。我和他登陆了一堆设备
a家的ceo反中也不是一天两天了,我一点也不觉得奇怪
用Codex。context window比cc大的多,和cc现在互有优劣。
据说Qwen coder也还不错。
cc不降智不限制5小时使用还是最好的coding agent,但现在降智太太太严重,在4k token的context window上recall rate是65你敢信,平均写500行大概有100行左右会有问题
这个ceo格局太低,安卓逻辑,安卓思维
个人用还是问题不大吧,感觉不会影响国内的程序员。国内公司大规模采购用来蒸馏看来不行了
正常的,
In July 2023, Amodei warned a United States Senate judiciary panel of the dangers of AI, including the risks it poses in the development and control of weaponry.
看了东大阅兵,发表观后感来了。
安卓ceo
你去看situational awareness,只能说美国ai业界有些人就是非常魔怔
卷不过中国,即使中国使用硬件被限制,依旧发展到现在这个程度,如果中国和美国有同样的算力,会怎么样?
中国那么卷,这种新兴行业美国佬没什么先发优势,只能走歪门邪道了。
可以尝试下开源模型,kimi/glm/qwen都可以接入claude code,不能说全面match claude,但是已经很接近了,在你的特定的工作流上,完全有可能取代claude
又不是没有别的产品用。坚决不用anthropic产品。
可以了,和传统老美那种我拿你的钱是看得起你,相比之下还不错了
这ceo水平不行 应该说这是为了避免中国的网络审查和黑客攻击
Anthropic’s Terms of Service prohibit use of our services in certain regions due to legal, regulatory, and security risks. However, companies from these restricted regions—including adversarial nations like China—continue accessing our services in various ways, such as through subsidiaries incorporated in other countries.
搜了搜创始人履历 貌似被百度毒打过
【引用自 DCVSMARVEL】:
adversarial nations like China
帝国propaganda最近几年动不动就说闹钟是敌对国,我倒要看看接下来,他们打算怎么把这坨屎吃回去
【引用自 eRic.DDDDDX】:
帝国propaganda最近几年动不动就说闹钟是敌对国,我倒要看看接下来,他们打算怎么把这坨屎吃回去
不会吃回去的
你看看“共产”至今在各种表格里与“恐怖分子”一个待遇,说实话我是很难想象,帝国当年是被共产主义挖了祖坟还是咋滴
还好吧。我就是 chatgpt 写的小作文 ,无内推,也拿到面试了。不过面试挂了,面试官人都很好,好得不像真人 lol
面试都是原题,开卷考试。但是 culture 真的不 fit。。。我就是小镇做题家打工人,没工夫管他那些 AI safety 狗屁。
【引用自 Yangff】:
Canonical:发一下你的高中成绩单
【引用自 狂魔哥】:
jerry。ai :你高考多少分
我投过第一个,这俩这么难绷的
担心既得利益被削减呗 美国人蹬鼻子上脸的本事不是传统吗
databricks: 你的本科/grad的transcript发一下
image2032×1270 337 KB
我发你木讷
【引用自 sw99】:
之前还在Baidu工作过
哈哈哈这就make sense了。。
Screenshot1772×1302 399 KB
吴恩达可能知道
咋拿到面试的?据说他家除了内推不给中国人发面试啊
就直接海投,隔壁全是面经感觉没有很难拿吧,application并没有问我是不是中国人
有国内学校的学历/经验么
没有zszs
也就是说,独裁专政的中东国家没问题,毕竟我要捏着鼻子从你那融资,但是“不民主的中国”是大大的不行滴!因为老子从你那啥也捞不着还净被薅羊毛!这个又当又立的双标碧池好贱啊,我真的是烦死这个b了。
现在看这话是没错的。。。
我觉得老美是能干出来的。比如封禁deepseek但是大肆使用QWen这种。。。
这货是个白鼬。现在鱿鱼看到中国跟黑眼疯似的
【引用自 dayI】:
帝国当年是被共产主义挖了祖坟还是咋滴
这就是意识形态之争啊
当年dario在百度上找割包皮的医生
给送到莆田系的男科 不小心把迪克也割掉了
Dario从此对中国恨之入骨 做啥事情第一考虑 safety safety safety…
怎么样? 编的如何
这野史似乎有点太野了
无法解释为何对制度更落后的中东视而不见,说白了就是老二就要干你,其他都是说辞而已。美国扶持的非洲暴君多的去了,也没见美国忏悔过
他家现在发很多面试,但是反正不给 offer
他们家入职三个月就要被拉去当面试官,每周至少面两场
我最近刚从Claude Code转到Codex,Claude Code最近降智非常严重感觉根本用不了了
李承晚和金日成都是独裁者,朴正熙政变的时候美军也没插手,默许了因为朴正熙反共,冷战的时候反共比反独裁重要100倍。冷战结束后美国没有敌人了吃饱撑着了才开始民主外送。中美冷战开始以后想必民主外送又要退居二线了
plus还是 pro? 有办法 低价嫖么?
原来是百度嫡传
IMG_80011320×1263 352 KB
我是一个Mac方案的重度用户 。
我怀疑我有一些prompt打很长的中文,这一两个礼拜它给我降智了很多 。
有没有人试验过如果不打中文,智商就不会下降的这么快呢?
我怀疑它是不是歧视中文用户 ,这个降智的程度有点夸张 。
一个月两百块美刀 ,买来一个智障 。
好像de shaw还是哪个b公司,投个简历还让填sat breakdown分,难绷
让claude code debug总是找不到,然后问他是不是a问题他就说You’re absolutely right! 发现不是,再问b然后又说You’re absolutely right! tmd
问过的AI都是这德行
image1000×808 62.8 KB
anthropic.com
Disrupting the first reported AI-orchestrated cyber espionage campaign
A report describing an a highly sophisticated AI-led cyberattack
assets.anthropic.com
Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
刚刚又发长文喷中国,感觉又要有一波新的封号动作了。
也是贻笑大方
就他们这模型水平,还espionage,太看得起自己了…
至少情绪价值给满了,同样的问题跑到stackoverflow上去问回复肯定说 You are absolutely wrong.
【引用自 Telumendil】:
同样的问题跑到stackoverflow上去问回复
我最开始还真的问过问题,然后下场比
【引用自 Telumendil】:
You are absolutely wrong
还要糟糕,直接问题关闭了。
一看AI快不行了马上拿中国威胁下政府,参考今年早期时候著名傻逼亚历山大王怎么威胁川川的。
肯定不是钱烧光了要打中国牌拿战争部大单来骗下一轮的傻子钱啦不可能的啦
感觉 Anthropic 更关注企业用户,公司给的 Sonnet 4.5 1M context 效果很好
太傻逼了
【引用自 boring】:
公司给的 Sonnet 4.5 1M context 效果很好
我朋友有个小公司anthropic给了个很好的报价,但是他问能不能保证不用他们的prompt或数据训练模型,联系人不置可否,后来就没用
现在最值钱的就是优质数据,不但倒贴钱给咱用,他还得谢谢咱呢
估计数据换折扣吧,我看公司 Claude Code 和后台 cost 都是官网价:Pricing | Claude
纽约时报都发了:
Anthropic称中国黑客利用该公司AI技术发起网络攻击
纽约时报中文网 – 17 Nov 25
Anthropic称中国黑客利用该公司AI技术发起网络攻击
这家人工智能初创公司表示,中国政府支持的黑客利用该公司的技术发动网络攻击,并称这是首例公开报道的由AI驱动的代理在有限人工干预下自动收集目标信息的案例。
image1372×420 42.2 KB
拿到大单了
https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17?reflink=desktopwebshare_permalink
这是痴心妄想,大语言模型好用就是好用,潜在的生产力革命还没起来就想着吃政府饭那必定衰落,奈何claude 目前还算挺好用的
anthropic.com
Detecting and preventing distillation attacks
Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.
这公司对于调查candidate有执念
understandable,中国实体使用本来就是违反TOS的
怎么说?
dpsk才蒸这么点?这数量级看着是跑eval差不多,蒸的话哪够用
这年头所有公司都在蒸,无非是量多量少,自用还是发布产品的区别。。我厂法务去年告诫我们组,根据我们和XXX的合同,不能 原封不动 的蒸馏他们的model,自用也不行。。所以我们决定蒸完给每条data前后加个空格或者newline
唉 是不是对员工好 和企业产品做得好鱼和熊掌不可兼得
月底了opus max不够用了用别家的比较了一下真的是一个天上一个地下
Anthropic指控深度求索等中国公司不当获取其数据
纽约时报中文网 – 24 Feb 26
Anthropic指控深度求索等中国公司不当获取其数据
美国AI初创企业Anthropic指控深度求索、月之暗面和稀宇科技利用虚假账号与Claude对话,以训练自己的聊天机器人。该公司称此类行为构成国家安全风险。
这公司已经自我定位是美国360了。
这可是比百度名声还臭的公司啊
从给政府打工的角度360的生态位不应该是PLTR么
其实国内那么多中转 api,输入输出都有了,直接拿过来不是更好
约等于在炫耀他们真的能并且会看你的数据,并且能根据metadata直接把你开盒了,欧盟没有啥想说的吗
x.com
@
anthorpic估计要说deepseek对claude进行注入攻击
百度已经被OAI预定了啊。正好都是Dario最讨厌的两个公司。
IMG_01721206×1568 303 KB
川建国同志显然也不喜欢Anthropic
https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban
五角大楼将AI公司Anthropic列为供应链风险,或遭起诉
BBC News 中文 – 6 Mar 26
人工智能和军事:五角大楼将AI公司Anthropic列为供应链风险,或遭起诉 - BBC News 中文
将这家人工智能公司列为供应链风险,是美国首次针对本土企业作出此类标注。