泥潭日报 uscardforum · 每日精选

Seedance 2.0 时刻 [不吵架, 理性讨论, 没有对错]

内容摘要

Seedance 2.0 影视工业应用引发版权争议,字节跳动Seedance 3.0已完成且成本更低;DeepSeek在中文处理上表现突出,但产品力受质疑;AI视频生成领域竞争加剧,面临版权、法律风险及内容质量挑战。

1. 关键信息

  • (之前已归纳) Seedance 2.0以200亿成本在AI技术上取得领先,引发对美国科技公司高额资本支出效率的质疑。
  • (之前已归纳) Seedance 2.0生成的AI meme和视频内容被认为是AI生成内容的新里程碑。
  • (之前已归纳) 用户认为Seedance 2.0的生成效果优于Sora。
  • (之前已归纳) 字节跳动Seedance 3.0已开发完成,成本更低功能更强。
  • (之前已归纳) 美国科技公司的高估值与其全球市场统治力相关。
  • (之前已归纳) Bydance计划在2026年投入230亿美元用于AI,国内AI基础设施投入巨大。
  • (之前已归纳) DeepSeek在AI生成内容方面表现突出,能解决ChatGPT和Gemini无法生成的程序。
  • (之前已归纳) Gemini半价优惠后,部分用户转向使用Gemini。
  • (之前已归纳) Seedance的出现可能对AI软件和SaaS行业产生类似“Seedance moment”的影响。
  • (之前已归纳) Seedance利好存储及芯片设备制造商,预示着信息量的暴增。
  • (之前已归纳) 相比于Sora,Seedance在生成效果和prompt要求方面表现更出色。
  • (之前已归纳) Startup在AI领域的demo可能存在夸大成分。
  • (之前已归纳) 用户质疑将Capex、training cost和inference cost混为一谈。
  • (之前已归纳) 字节跳动曾是GCP客户,不建数据中心则难以服务这些公司。
  • (之前已归纳) 视频生成领域已进入新的竞争阶段。
  • (之前已归纳) AI视频生成技术可能面临版权问题。
  • (之前已归纳) 字节跳动利用TikTok等平台传播AI生成内容。
  • (之前已归纳) AI生成的日常视频在TikTok上获得高点赞,显示出其在内容创作领域的潜力。
  • (之前已归纳) AI视频生成可能带来比广告更多的变现方式。
  • (之前已归纳) Seedance在镜头语言、运镜真实性以及低废片率方面表现突出,被认为是视觉领域的“ChatGPT时刻”。
  • (之前已归纳) Transformer和Diffusion模型被认为在Seedance面前已显过时。
  • (新增) Seedance 2.0在旅游规划方面比Gemini更好用,视角更贴近国内用户。
  • (新增) 有用户认为DeepSeek至今仍是中文水平最高的模型。
  • (新增) Seedance 2.0引发版权方律师函,市场情绪受此影响。
  • (新增) 字节跳动Seedance 3.0已开发完成,成本为2.0的1/8,具备多角度、Director级别控制等功能。
  • (新增) 字节跳动2026年AI投入200亿人民币的说法受到质疑,与Google的投入在计算方式上不具可比性。
  • (新增) DeepSeek的超预期表现被认为源于芯片国产化的低成本。
  • (新增) 用户认为,Seedance 2.0的快速迭代(3.0已完成)表明其成本效益优势,可能很快淘汰第二代。
  • (新增) 字节跳动作为美国公司的客户,不建数据中心反而难以服务这些公司。
  • (新增) 视频生成领域已进入新的竞争阶段,不再是单纯比拼质量。
  • (新增) AI视频生成技术面临版权问题,可能限制其大规模应用。
  • (新增) 字节跳动利用TikTok等平台传播AI生成内容,用户难以封禁。
  • (新增) AI生成的日常视频在TikTok上获得高点赞,显示出其在内容创作领域的潜力。
  • (新增) AI视频生成可能带来比广告更多的变现方式,前景广阔。
  • (新增) Seedance在镜头语言、运镜真实性及低废片率方面表现突出,被认为是视觉领域的“ChatGPT时刻”。
  • (新增) Transformer和Diffusion模型在Seedance面前已显过时。
  • (新增) 用户认为,Seedance 2.0的生成效果优于Sora,且在prompt要求和生成效果上更出色。
  • (新增) DeepSeek在解决ChatGPT和Gemini无法生成的程序方面有优势,但其早期表现惊艳,后期出现“胡言乱语”的情况。
  • (新增) Gemini半价优惠后,部分用户转向使用Gemini。
  • (新增) Seedance的出现可能对AI软件和SaaS行业产生类似“Seedance moment”的影响。
  • (新增) Seedance利好存储及芯片设备制造商,预示着信息量的暴增。
  • (新增) 用户认为,Startup在AI领域的demo可能存在夸大成分。
  • (新增) 字节跳动利用TikTok等平台传播AI生成内容,用户难以封禁。
  • (新增) AI生成的日常视频在TikTok上获得高点赞,显示出其在内容创作领域的潜力。
  • (新增) AI视频生成可能带来比广告更多的变现方式,前景广阔。
  • (新增) Seedance在镜头语言、运镜真实性及低废片率方面表现突出,被认为是视觉领域的“ChatGPT时刻”。
  • (新增) Transformer和Diffusion模型在Seedance面前已显过时。
  • (新增) 用户试用Seedance 2.0后,认为其生成内容“stmsmjbwy”,与“中概”认知一致,并质疑其效果。
  • (新增) 视频生成的用户基数不大,收费后付费用户可能更少。
  • (新增) 字节跳动在中美成本差异和“美国赚钱中国花”的模式下具有优势。
  • (新增) AI生成海量视频可能推高存储需求,利好云服务商。
  • (新增) 用户认为Seedance 2.0的效果虽然好了很多,但与Veo3相比优势不明显,仍存在“抽卡”现象。
  • (新增) DeepSeek被认为更侧重算法创新而非产品力。
  • (新增) Disney已开始对字节跳动发出律师函,版权问题可能导致Seedance难以大规模应用。
  • (新增) Seedance 2.0在B站上已有用户制作小视频,但做出优秀作品仍有门槛。
  • (新增) 用户认为Seedance 2.0的“废案”很多,需要多次尝试才能生成可用内容。
  • (新增) mHC是字节之前HC工作的改进。
  • (新增) 字节跳动拥有强大的ML基因,提供海量好用的能力API,低成本高卷度的国内工程师提供infra支持,便宜的标注团队,以及庞大的国内数据库。
  • (新增) 字节跳动通过内部API可以满足大部分数据处理需求。
  • (新增) 字节跳动利用低成本地区开始运作,背靠中国高质量人才。
  • (新增) 字节跳动在AI领域投入低,是因为只训练视频生成。
  • (新增) 国内大厂基模团队拥有千卡A100/H100集群。
  • (新增) Seedance moment和DeepSeek moment被认为是宣发猛吹和大众对新技术的新鲜感所致。
  • (新增) 用户分享了x.com的链接,但未提供具体内容。

2. 羊毛/优惠信息

  • (之前已归纳) 无
  • (新增) Gemini曾推出半价优惠。

3. 最新动态

  • (之前已归纳) 尽管有用户声称主流媒体未报道,但也有用户提供了Forbes和BBC关于Seedance 2.0的报道链接。
  • (新增) 字节跳动Seedance 3.0已开发完成,成本为2.0的1/8。
  • (新增) 有报道称Bydance计划在2026年投入230亿美元用于AI。
  • (新增) Gemini半价优惠后,部分用户转向使用Gemini。
  • (新增) 中国DRAM和NAND产品已从美国国防部1260H清单中移除。
  • (新增) Disney已开始对字节跳动发出律师函,涉及版权问题。
  • (新增) mHC是字节之前HC工作的改进。
  • (新增) 字节跳动拥有强大的ML基因,提供海量好用的能力API,低成本高卷度的国内工程师提供infra支持,便宜的标注团队,以及庞大的国内数据库。
  • (新增) 字节跳动通过内部API可以满足大部分数据处理需求。
  • (新增) 字节跳动利用低成本地区开始运作,背靠中国高质量人才。
  • (新增) 字节跳动在AI领域投入低,是因为只训练视频生成。
  • (新增) 国内大厂基模团队拥有千卡A100/H100集群。
  • (新增) Seedance moment和DeepSeek moment被认为是宣发猛吹和大众对新技术的新鲜感所致。
  • (新增) Qwen的LLM/VLM被认为在国内领先,优于DeepSeek和Seedance。
  • (新增) DeepSeek的mHC被认为是“造概念编公式水paper”。
  • (新增) Transformer架构即使再发展一百年,其DiT(Diffusion Transformer)输出结果也存在不可控的问题。
  • (新增) 主流媒体对Brad Pitt and Tom Cruise视频的报道,可能导致周受资再次被传唤。
  • (新增) 天才的涌现需要科研环境、生活质量和教育体系的支撑。
  • (新增) 字节跳动通过屏蔽生成内容可以规避法律风险。
  • (新增) 字节跳动在美国的薪资待遇可能高于其他大厂,但RSU是更重要的考量因素。
  • (新增) Qwen Edit在prompt alignment方面持续进步。
  • (新增) 纯Transformer或任何深度学习模型在数学上无法解决“抽卡”问题。
  • (新增) 讨论涉及Meta公司的薪酬待遇,以及与OpenAI等公司在GenAI领域的薪酬对比。
  • (新增) 有用户认为,即使是Meta这样的公司,在AI领域也可能被视为Tier 2。
  • (新增) 讨论提到伊利娅(Ilya Sutskever)专注于SSI和新架构研究。
  • (新增) 有用户认为,Seedance的结尾巨乳图是旧梗图,并非AI凭空生成。
  • (新增) 讨论中出现对LeCun不看好LLM的引用。
  • (新增) 国内AI、芯片、商用航天、机器人是当前融资热点。
  • (新增) 贾科长(Jia Zhangke)等专业人士开始使用AI工具(如Seedance)进行短片创作。
  • (新增) 纯AI制作的长片可能在年内出现。
  • (新增) 字节跳动在AI领域的快速迭代和成本效益是其核心竞争力。
  • (新增) AI视频生成领域面临版权和法律风险,字节跳动通过内容屏蔽等方式应对。
  • (新增) 国内AI、芯片、商用航天、机器人领域是融资热点。
  • (新增) AGI的实现仍需探索,LLM是其一部分,但距离尚远。
  • (新增) AI在编码等领域已显著提升效率。
  • (新增) LLM被视为“大号搜索引擎”或“自动补全”。
  • (新增) 公司利用AI大幅缩短3D内容制作时间。
  • (新增) 字节跳动普通SDE的薪资待遇(含RSU)可能高于其他大厂。
  • (新增) AI生成视频内容(如Brad Pitt vs Tom Cruise)可能涉及肖像权侵犯。
  • (新增) Seedance 2.0的“废案”较多,需要多次尝试生成可用内容。
  • (新增) 字节跳动在AI领域的投入和技术迭代是其优势。
  • (新增) AGI的实现可能需要突破底层物理学。
  • (新增) 讨论涉及Meta公司高级职位的薪酬待遇。
  • (新增) Ilya Sutskever的研究方向受到关注。
  • (新增) 对AI生成内容的真实性存在质疑。
  • (新增) LeCun对LLM的看法与行业影响力存在反差。
  • (新增) 建议关注市场走势,调整科技股仓位。
  • (新增) 字节跳动开源策略可能影响版权法。
  • (新增) 对AI工具的“正经用途”和高估值合理性存疑。
  • (新增) AI生成99%的垃圾内容,专业人士角色转向鉴别。
  • (新增) AI在编码、STEM、写作、教育等方面发挥作用。
  • (新增) AGI至少应能批量生产Nature级别论文。
  • (新增) 机器的24小时运行优势明显。
  • (新增) AGI的实现与粒子物理学无关。
  • (新增) 科学本质是创新。
  • (新增) Seedance在影视工业的应用面临版权风险,尤其是在美国好莱坞等地区,可能与当地资本势力产生冲突。

4. 争议或不同意见

  • (之前已归纳) 关于主流媒体是否“压热度”存在不同看法。
  • (新增) Sora与Seedance 2.0的优劣存在争议。
  • (新增) 关于字节跳动200亿AI投入的真实性及构成存在质疑。
  • (新增) DeepSeek的表现存在争议。
  • (新增) 对于国内AI投入的规模,有用户认为230亿美元已属巨额,但也有用户认为与国际巨头相比仍有差距。
  • (新增) 对于Startup的AI demo的真实性存在普遍疑虑。
  • (新增) 用户认为,将Capex与训练/推理成本混为一谈是对比字节跳动和Google投入的误区。
  • (新增) 认为Seedance的成功更多在于其数据优势和低废片率。
  • (新增) 对于Transformer和Diffusion模型在AI发展中的地位存在不同看法。
  • (新增) 用户认为,Seedance 2.0的生成效果与Sora或Veo3相比优势不明显,仍存在“抽卡”现象。
  • (新增) 视频生成的用户基数不大,收费后付费用户可能更少。
  • (新增) 字节跳动在中美成本差异和“美国赚钱中国花”的模式下具有优势。
  • (新增) DeepSeek被认为更侧重算法创新而非产品力。
  • (新增) Disney已开始对字节跳动发出律师函,版权问题可能导致Seedance难以大规模应用。
  • (新增) Seedance moment和DeepSeek moment被认为是宣发猛吹。
  • (新增) Qwen的LLM/VLM被认为在国内领先,优于DeepSeek和Seedance。
  • (新增) DeepSeek的mHC被认为是“造概念编公式水paper”。
  • (新增) Transformer架构即使再发展一百年,其DiT(Diffusion Transformer)输出结果也存在不可控的问题。
  • (新增) 字节跳动在美国的薪资待遇可能高于其他大厂,但RSU是更重要的考量因素。
  • (新增) 纯Transformer或任何深度学习模型在数学上无法解决“抽卡”问题。
  • (新增) 关于Meta公司TBD和MSL的薪酬以及与OpenAI的对比存在不同看法。
  • (新增) 对于伊利娅(Ilya Sutskever)的研究方向和成果存在期待。
  • (新增) 对于Seedance生成内容的“梗图”性质存在争议。
  • (新增) LeCun对LLM的看法与LLM的行业影响力之间存在反差。
  • (新增) 关于是否应该卖出NVDA、MSFT等股票等待下个月抄底,存在不同意见。
  • (新增) 对于AI工具的“正经用途”存在质疑,认为其更多是娱乐工具。
  • (新增) Seedance 2.0的颠覆性不如DeepSeek。
  • (新增) AI生成内容(如视频)的“灵魂”和原创性受到质疑。
  • (新增) 视频生成AI的质量参差不齐,99%的内容缺乏“灵魂”。
  • (新增) 存在对AI生成内容(如Brad Pitt vs Tom Cruise视频)的讨论,认为其可能涉及肖像权而非版权侵犯。
  • (新增) AGI的实现与粒子物理学等底层科学无关。
  • (新增) 纯粹的学术追求和对癌症等疾病的攻克是未来人类努力的方向。
  • (新增) 科学本质是创新,AI在批量生产论文方面可能改变研究模式。
  • (新增) 机器的24小时运行优势明显。
  • (新增) AGI的实现可能需要突破底层物理学。
  • (新增) 纯Transformer架构在AI发展中的局限性被提及。
  • (新增) 对Seedance生成内容的“梗图”性质存在争议。
  • (新增) LeCun对LLM的看法与LLM的行业影响力之间存在反差。
  • (新增) 对AI工具的“正经用途”和高估值合理性存疑。
  • (新增) AI生成99%的垃圾内容,专业人士角色转向鉴别。
  • (新增) AI在编码、STEM、写作、教育等方面发挥作用。
  • (新增) AGI至少应能批量生产Nature级别论文。
  • (新增) 用户认为,原创内容也可以使用SD2制作,并质疑Sora的训练数据来源和对创作者的补偿问题。
  • (新增) Seedance在影视工业的应用可能面临与好莱坞等地区资本的版权冲突,尤其是在美国。

5. 行动建议

  • (之前已归纳) 鉴于Seedance 2.0的成本效益优势,可能需要重新评估对Nvidia等硬件供应商的投资。
  • (之前已归纳) 关注美国科技公司在AI领域的投入与产出比,警惕潜在的市场泡沫。
  • (新增) 鉴于Seedance的成本效益和快速迭代(3.0已完成),可能需要重新评估对Nvidia等硬件供应商的投资。
  • (新增) 关注美国科技公司在AI领域的投入与产出比,警惕潜在的市场泡沫,但同时也要认识到AI作为国家战略的推进可能导致泡沫破裂延迟。
  • (新增) 关注AI软件和SaaS行业是否会受到“Seedance moment”的影响。
  • (新增) Seedance的出现可能利好存储和芯片设备制造商。
  • (新增) 鉴于Seedance在prompt要求和生成效果上的优势,可关注其在实际应用中的表现。
  • (新增) 谨慎看待Startup的AI demo,更关注其大规模应用和实际效果。
  • (新增) 尽管对国内AI公司投资持谨慎态度(风险高),但需关注其在AI基础设施上的投入。
  • (新增) 建议投资者在AI领域,在风险考量下,优先考虑Google, Microsoft, Amazon等国际巨头,而非国内公司。
  • (新增) 关注AI视频生成领域可能带来的变现方式,如短剧、短视频带货等。
  • (新增) 鉴于Seedance在镜头语言和低废片率方面的优势,可将其视为视觉领域的“ChatGPT时刻”,并关注其对行业的影响。
  • (新增) 关注国内存储器产业的发展,其已从美国制裁清单中移除,可能迎来新的发展机遇。
  • (新增) 鉴于Seedance 2.0在生成效果、prompt要求和成本效益方面的优势,可关注其在实际应用中的表现,并注意其可能面临的版权挑战。
  • (新增) 关注AI视频生成领域可能带来的变现方式,如短剧、短视频带货等。
  • (新增) 鉴于Seedance在镜头语言和低废片率方面的优势,可将其视为视觉领域的“ChatGPT时刻”,并关注其对行业的影响。
  • (新增) 关注国内存储器产业的发展,其已从美国制裁清单中移除,可能迎来新的发展机遇。
  • (新增) 鉴于字节跳动在ML基因、API生态、成本控制和人才优势,可关注其在AI领域的长期发展潜力。
  • (新增) 关注Qwen等国内模型在LLM/VLM领域的进展,以及其在产品力上的表现。
  • (新增) 关注AI视频生成技术在规避法律风险方面的策略,例如内容屏蔽。
  • (新增) 关注AI领域对Transformer架构的局限性讨论,以及DiT等新架构的实际效果。
  • (新增) 关注AI视频生成领域的版权问题和潜在的法律风险,以及可能对公司(如字节跳动)带来的影响。
  • (新增) 关注AI模型“抽卡”问题的根本原因,以及工程进步在解决此类问题中的作用。
  • (新增) 关注AI领域的薪酬动态,特别是TBD和MSL等高级职位的薪资包,以及不同公司(如Meta, OpenAI)的竞争力。
  • (新增) 关注SSI(Supervised State Intelligence)等新架构的研究进展,以及对AI突破的潜在贡献。
  • (新增) 警惕AI生成内容被误解为“简单prompt生成”,关注其背后的技术和创作过程。
  • (新增) 关注LeCun等行业领袖对LLM的看法,并将其与LLM的实际行业影响力进行对比。
  • (新增) 关注国内AI、芯片、商用航天、机器人等领域的融资动态。
  • (新增) 建议关注市场走势,考虑在合适时机调整NVDA、MSFT等科技股的仓位。
  • (新增) 字节跳动将开源作为“核武器”的策略,一旦实施,可能实质性架空版权法,用户可自行部署生成。
  • (新增) 鉴于目前对AI工具的“正经用途”存在质疑,建议关注其是否能真正实现“解放生产力”,以及当前AI公司的高估值是否合理。
  • (新增) 关注生物医疗医药领域的融资动向,作为AI之外的投资参考。
  • (新增) 关注Seedance 2.0在中文语境下的表现,其可能比Gemini更适合国内用户。
  • (新增) 关注DeepSeek在中文处理方面的能力,其可能成为中文水平最高的模型。
  • (新增) 关注Seedance 2.0引发的版权争议,以及其对市场情绪和估值的影响。
  • (新增) 关注字节跳动对AI的持续投入和技术迭代(3.0已完成),以及其成本效益优势。
  • (新增) 关注AI视频生成领域可能面临的法律风险和版权问题,以及字节跳动应对策略。
  • (新增) 关注国内AI、芯片、商用航天、机器人等领域的融资热点,以及生物医疗医药领域的融资动向。
  • (新增) 关注AI生成内容的“灵魂”和原创性,以及专业人士的角色。
  • (新增) 建议用户尝试使用Seedance 2.0进行视频生成,并结合分镜创作。
  • (新增) 强调原创内容也可以通过Seedance 2.0实现,并对Sora的训练数据和版权问题提出质疑。
  • (新增) 鉴于Seedance在影视工业应用中可能面临的版权风险,尤其是在美国与好莱坞等地的潜在冲突,建议关注其在国内市场的落地情况,以及国内相关政策的支持力度。
原始内容
--- 第 1 楼来自 BigDan 的回复 (2026-02-14 18:42:42 PST) ---

是否和去年的 deekseek 时刻一样?

而且这次不仅仅是降低成本,是完全领先了,bytedance 只用了 200 亿的成本,而 google 一家一年就要烧 2000 亿,市场一定有反应

咱就一般人直觉: 这都花的什么 bullshit capex 用的比国内好得多的硬件,10倍的成本,远远落后,完全不 make sense,而且主流媒体和上次 deepseek 一样压热度, cnn cnbc fox 没一个报道的,估计是想让大户先跑?

image543×305 70.6 KB

这个 meme 已经火爆了,first AI generated 年度 meme

https://x.com/charliebcurran/status/2022463429823598999?s=20

stranger things 的改编

https://x.com/Nin19536/status/2021956823457440179?s=20

Brad Pitt 大战 Tom Cruise 还蹭了 Epstein files 的热度

https://www.reddit.com/r/DeepMarketScan/s/nH9Q49aO8R

--- 第 2 楼来自 sw99 的回复 (2026-02-14 18:48:35 PST) ---

【引用自 BigDan】:
这个 meme 已经火爆了,first AI generated 年度 meme
https://x.com/charliebcurran/status/2022463429823598999?s=20
火爆的部分原因归功于视频第14秒后

--- 第 3 楼来自 258 的回复 (2026-02-14 18:50:52 PST) ---

缸中大脑第一步

--- 第 4 楼来自 BigDan 的回复 (2026-02-14 18:51:26 PST) ---

资本家的真实评论,这个结尾绝对是 nb 炸了:

image600×496 40.6 KB

image585×531 70.6 KB

--- 第 5 楼来自 LeoQ8 的回复 (2026-02-14 18:53:02 PST) ---

怎么说,等着抄底nvda?

--- 第 6 楼来自 BigDan 的回复 (2026-02-14 18:57:14 PST) ---

不知道啊,有时候会装死,但是凭良心说这个真的算对 msft amzn goog 这种 10x 规模烧钱的利空

和对不需要那么多 nvda 硬件的利空

我真感觉美国公司搞的这波泡沫有点大了,以前没人和你竞争,自己玩决出一个胜者怎么都行,就像现在就像有了比亚迪,tsla 车都没竞争力了

没法垄断,没有垄断就没有定价权,没有定价权就没有超额利润,都是虚的

你没法对任何一个有着任何基本 common sense 的投资人解释为啥 bytedance 只花了 200 亿搞出了比你牛逼多的东西,你要花 2000 亿还没个影

另外不知道 goog 为啥要发百年债券,虽然是个吐槽,但是百年债这玩意都感觉不吉利啊

--- 第 7 楼来自 newhope 的回复 (2026-02-14 19:01:07 PST) ---

【引用自 BigDan】:
而且主流媒体和上次 deepseek 一样压热度
两天前就有报导啊,而且我帖子还提到了

https://www.forbes.com/sites/ronschmelzer/2026/02/12/bytedances-seedance-20-nails-real-world-physics-and-hyper-real-outputs/

bbc.com

Seedance: Hollywood studios take aim at 'ultra-realistic' AI video tool

Clips including Brad Pitt and Tom Cruise fighting, made by new AI video tool Seedance, have gone viral.
【引用自 未知】:
卧槽!卧槽!卧槽!你们跟我说这词曲影像全部都是AI做的??!! 影音娱乐
字节这个终于没有网红脸了

--- 第 8 楼来自 BigDan 的回复 (2026-02-14 19:01:52 PST) ---

我搜了下美国的 cnn fox nytimes 两天前都没有,cnbc 好像昨天报道了

--- 第 9 楼来自 DivingPenguin 的回复 (2026-02-14 19:03:20 PST) ---

Sora跟这个实在是没法比。

--- 第 10 楼来自 LeoQ8 的回复 (2026-02-14 19:04:51 PST) ---

说的我有点害怕了

--- 第 11 楼来自 YanamiAnna 的回复 (2026-02-14 19:05:59 PST) ---

以竞争领域来看

与其问google不如问meta在干嘛

google看起来要顾蛮多的 这种不好变现 首先得交一堆版权费

好不容易在LLM和search防守成功了

--- 第 12 楼来自 newhope 的回复 (2026-02-14 19:07:42 PST) ---

【引用自 BigDan】:
你没法对任何一个有着任何基本 common sense 的投资人解释为啥 bytedance 只花了 200 亿搞出了比你牛逼多的东西,你要花 2000 亿还没个影
花姐那么聪明的人,怎么会没看到这里面的问题,现在美国大搞AI已经是国家战略了,这场仗没打赢之前泡沫就不能破

--- 第 13 楼来自 258 的回复 (2026-02-14 19:09:15 PST) ---

打赢了破了 是打赢了还是没打赢?

--- 第 14 楼来自 hoodl 的回复 (2026-02-14 19:09:50 PST) ---

但不妨碍先跌一波收割一把韭菜。

--- 第 15 楼来自 a66 的回复 (2026-02-14 19:11:53 PST) ---

text to video 还要看 inference 成本

--- 第 16 楼来自 Kitsch 的回复 (2026-02-14 19:12:12 PST) ---

【引用自 BigDan】:
bytedance 只用了 200 亿的成本,而 google 一家一年就要烧 2000 亿
字节ai的traffic和google怎么比,这200亿基本上就是training cost吧,真的scale上去你看字节要花多少钱

而且数据中心的buildout cost都是本地化的,你只要serve美国市场就是要在美国建data center,成本就是这么高的

--- 第 17 楼来自 cybersecurity 的回复 (2026-02-14 19:16:45 PST) ---

版权是大问题

--- 第 18 楼来自 BigDan 的回复 (2026-02-14 19:17:26 PST) ---

据说 3.0 已经搞好了,成本是 2.0 的 1/8

image581×818 107 KB

--- 第 19 楼来自 BigDan 的回复 (2026-02-14 19:17:48 PST) ---

1/8 的成本已经弄出来了,3.0

但是软件是这么回事,你要在gloabl竞争,google,msft,meta等等的高估值是全球范围内的统治力,你就算美国成本高,你算法没别人好,竞争不了全球市场,更 just 不了成本啊

--- 第 20 楼来自 a66 的回复 (2026-02-14 19:20:05 PST) ---

2.0 才出来 3.0 便搞好了

这有点 too good to be true

--- 第 21 楼来自 LeoQ8 的回复 (2026-02-14 19:20:59 PST) ---

这还挺正常的吧,release的时候下一代基本上也就差不多了

--- 第 22 楼来自 BigDan 的回复 (2026-02-14 19:21:25 PST) ---

3.0 主要还是成本砍下去了,时间拉长,多角度,director 级别控制,算正常的 engineer effort 把

--- 第 23 楼来自 a66 的回复 (2026-02-14 19:24:41 PST) ---

且看看后续

--- 第 24 楼来自 starlight 的回复 (2026-02-14 19:27:38 PST) ---

【引用自 BigDan】:
200 亿的成本,而 google 一家一年就要烧 2000 亿
source?

字节花200亿只做了seedance,还是整个GenAI的支出是200亿…

--- 第 25 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 19:28:59 PST) ---

不少言論在deepseek 還歷歷在目 後續不知道會不會一樣

但是願意加倉A股的 跟願意加倉美股的 應該還是一樣的人

AI軟體是不是在跌 所有saas都會遇上seedance moment

--- 第 26 楼来自 lng2020 的回复 (2026-02-14 19:30:35 PST) ---

deepseek除了刚出来比较惊艳,现在不是天天胡言乱语吗

--- 第 27 楼来自 BigDan 的回复 (2026-02-14 19:30:43 PST) ---

deepseek 最大的问题是没有领先

看下 gpt 效果被 gemini 超过后市场份额下降了多少吧

不过具体长时间看怎样还不清楚,在 ai 这个新兴领域,竞争是避免不了的,我觉得 seedance 是第一次美国真的在 ai 的某个 area 落后了,我有想过国内会有一天会赶上,没想到来的这么快

--- 第 28 楼来自 LeoQ8 的回复 (2026-02-14 19:30:43 PST) ---

我刚去搜,找到这个。说是26年23B? https://finance.yahoo.com/news/bytedance-plans-spend-23-billion-013340287.html

--- 第 29 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 19:32:26 PST) ---

確實 我自身也是用免費的 直到gemini半價 我也給goog做貢獻了 現在直接chrome 點開gemini 基本上沒有gpt的事情了

國家強力支持 軍備競賽 兩邊都一樣

--- 第 30 楼来自 yzhang91 的回复 (2026-02-14 19:32:28 PST) ---

我之前chatgpt和gemini都弄不出来的程序 让DeepSeek给弄出来了

--- 第 31 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 19:34:09 PST) ---

阿里 字節 今年主要AI infra 對標google, MS, AWS 但是我也不敢買BABA 寧願買GOOG, MSFT, AMZN

--- 第 32 楼来自 BigDan 的回复 (2026-02-14 19:37:08 PST) ---

我也不买国内的公司,风险也是高

就是眼看着 gpt 落后了,openai 融资困难的逻辑就是 ------- “估值是人家的几倍,效果没人家好”,市场不买账了,搞得关联的 orcl,msft 都连带着跌

这波 seedance 才刚开始发酵,具体市场有啥反正很难说,有时候会无视

--- 第 33 楼来自 LeoQ8 的回复 (2026-02-14 19:37:44 PST) ---

这个信息不准?23B才230亿啊

--- 第 34 楼来自 BigDan 的回复 (2026-02-14 19:38:17 PST) ---

国内 230 亿美刀很多了,都是 1000 多亿人民币了,真不少了

--- 第 35 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 19:38:25 PST) ---

我自己是抱持著 國外新聞會把國內好的新聞低報 所以就是看看 實際數字 應該可以找阿里財報看看吧 阿里多少 字節基本更多 因為兩邊也在打仗

--- 第 36 楼来自 YanamiAnna 的回复 (2026-02-14 19:40:05 PST) ---

更多的AI废片 更多的SNDK

--- 第 37 楼来自 LeoQ8 的回复 (2026-02-14 19:40:22 PST) ---

我以为的对标是基本上差不多数字lol,like 100B以上

--- 第 38 楼来自 moss 的回复 (2026-02-14 19:40:33 PST) ---

seedance给我的感觉就是,利好存储以及芯片设备制造商,信息量又要暴增

--- 第 39 楼来自 几曾识干戈 的回复 (2026-02-14 19:50:11 PST) ---

把DeepSeek问急眼了直接用英语思考了:OK, let’s break this down. The user is getting increasingly frustrated because I keep misunderstanding the basic facts of the situation. They’ve corrected me multiple times. The core facts are now very clear:然鹅后面还是错的回复

--- 第 40 楼来自 xxxyyy 的回复 (2026-02-14 19:58:16 PST) ---

毕竟sora能用的训练数据也没tiktok多吧

--- 第 41 楼来自 MOMOMOMOMO 的回复 (2026-02-14 19:59:00 PST) ---

我寻思去年就看过一些startup做到类似水准了

--- 第 42 楼来自 xxxyyy 的回复 (2026-02-14 20:00:43 PST) ---

startup的东西都是demo不错,然后不敢给人大规模用,搞小圈子试用,真的咋样不好说的,弄几个特别好的例子谁都可以,抽卡总有抽中的,但要抽几次才比较关键。抽了几十上百次,写了小作文一样长的prompt也不会告诉你。

seedance这次比较出色的是,抽卡次数要求很少,一两次就能出可以用的,prompt也不用写小作文

--- 第 43 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 20:02:43 PST) ---

螞蟻阿福 沒有燒到美國 挺可惜的

--- 第 44 楼来自 LeoQ8 的回复 (2026-02-14 20:05:35 PST) ---

有没有一种可能,投资者经过deepseek那波已经有预期了,东大花小钱办大事,反应不大了。反而算力需求更大了,利好半导体

--- 第 45 楼来自 hjfhdjellskx 的回复 (2026-02-14 20:08:09 PST) ---

【引用自 BigDan】:
bytedance 26 年只烧 200 亿的,而 google 一家 26 年就要烧 2000 亿
不是说bytedance 做的不好,但数据不能这么比吧。

Capex 和 training cost or inference cost 有什么关系。

Google 的 data center 也不是只给自己用。

--- 第 46 楼来自 a66 的回复 (2026-02-14 20:08:25 PST) ---

deepseek 那波开始时的超预期是芯片国产化超低成本

但后来消息显示所谓国产化和开始时的设想相差甚远

--- 第 47 楼来自 折木奉太郎 的回复 (2026-02-14 20:12:33 PST) ---

如果真是如此应该很快就要淘汰第二代了,不然成本帐划不来

--- 第 48 楼来自 折木奉太郎 的回复 (2026-02-14 20:14:13 PST) ---

国产大模型已经有贺岁档了,今年是第二年

--- 第 49 楼来自 flywire 的回复 (2026-02-14 20:17:08 PST) ---

一个总统令,西方没有国家敢用

--- 第 50 楼来自 折木奉太郎 的回复 (2026-02-14 20:19:24 PST) ---

一个总统令,额……让用的时候才能用!
【引用自 未知】:
东大内存闪存经过国家认证安全了 电子产品
中国 DRAM 和 NAND 产品推向市场的一大关键障碍,是长鑫存储(CXMT)与长江存储(YMTC)被纳入美国国防部 1260H 清单。而在最新一轮清单调整中,两家企业已正式被移出。
据外媒报道,今日美国国防部修订了1260H条款文件,修订后的文件显示,上述两家存储厂商已被移出清单。

--- 第 51 楼来自 lix 的回复 (2026-02-14 20:25:26 PST) ---

50000可能就是道指的历史大顶了

--- 第 52 楼来自 cnxcnx 的回复 (2026-02-14 20:27:23 PST) ---

是的,字节本来海外也是gcp的客户,不建数据中心怎么给这些公司提供服务

--- 第 53 楼来自 MOMOMOMOMO 的回复 (2026-02-14 20:29:20 PST) ---

没法大规模用还是因为烧不起这钱吧 据我所知他们的模式还是更多直接面向customer

虽然没体验但是我同意你说的抽卡次数可能会少因为有得天独厚的data

不过话又说回来 终于看到视频生成卷不动质量了

--- 第 54 楼来自 Labubu 的回复 (2026-02-14 20:30:56 PST) ---

如果只是data够多就能搞出来就好了

--- 第 55 楼来自 MOMOMOMOMO 的回复 (2026-02-14 20:33:24 PST) ---

卷模型除非再来个transformer/diffusion moment我不知道除了data还有啥能显著提高的

终于看完lz发的example了 顶多deepseek时刻 blow my mind/遥遥领先大可不必

--- 第 56 楼来自 GuanBai 的回复 (2026-02-14 20:33:38 PST) ---

只要封掉不让用就好了 好比国产电动车 你再便宜性价比高 不让你买就没辙 就没办法造成冲击

--- 第 57 楼来自 MyLiverIsBad 的回复 (2026-02-14 20:40:55 PST) ---

版权炮就能把这档了,到时律师信发到各大平台也放不了。问题是怎么变现,手搓好莱坞大片放到影院?

--- 第 58 楼来自 uscdfm 的回复 (2026-02-14 20:42:00 PST) ---

短剧短视频刷流量带货

--- 第 59 楼来自 BigDan 的回复 (2026-02-14 20:43:57 PST) ---

关于 ip 的,不仅仅是打斗剧情视频,日常的也行,tiktok 已经有几百k的日常视频点赞观看了:

https://www.tiktok.com/t/ZP893wfcn/

https://www.tiktok.com/t/ZP893onCj/

这个ai拍的日常视频166k点赞了,老实说完全看不出来是ai,以后创作估计全ai了

https://www.tiktok.com/t/ZP8933U5H/

--- 第 60 楼来自 MOMOMOMOMO 的回复 (2026-02-14 20:45:03 PST) ---

像chatgpt现在不也只想到广告这无语的额外变现方式

视频的话感觉可能性就多起来了 很期待

--- 第 61 楼来自 BigDan 的回复 (2026-02-14 20:45:06 PST) ---

用户自己传utube tiktok你怎么封?

这样的:

https://www.tiktok.com/t/ZP8933U5H/

--- 第 62 楼来自 BenjaminL 的回复 (2026-02-14 20:46:49 PST) ---

我一直觉的AI就是超级大的泡沫。美国现在国运都在押宝AI

--- 第 63 楼来自 Labubu 的回复 (2026-02-14 20:51:07 PST) ---

我一直很佩服那些把一件明明很难做到的事情说的轻描淡写,仿佛自己随便动动手也能做到的人。
【引用自 MOMOMOMOMO】:
顶多deepseek时刻
虽然Tim紧急发的视频headline是

【改变视频行业的AI,快来了(但有点恐怖)-哔哩哔哩】 改变视频行业的AI,快来了(但有点恐怖)_哔哩哔哩_bilibili

--- 第 64 楼来自 BigDan 的回复 (2026-02-14 20:52:43 PST) ---

我觉得挺牛逼的,反正blow my mind

--- 第 65 楼来自 BigDan 的回复 (2026-02-14 20:54:19 PST) ---

【引用自 MOMOMOMOMO】:
transformer/diffusion moment
我自己就是搞cv出身的,你提的这两个说实话给seedance提鞋都不配

这两就类似 pre-chatgpt area 的老古董,seedance才是vision 领域的 chatgpt 时刻

--- 第 66 楼来自 up9080 的回复 (2026-02-14 20:56:24 PST) ---

transformer 是所有 LLM 的开山鼻祖好不好。。。

--- 第 67 楼来自 lalaohlala 的回复 (2026-02-14 20:56:37 PST) ---

利好sndk…

--- 第 68 楼来自 BigDan 的回复 (2026-02-14 20:56:42 PST) ---

那你咋不说cnn是一切鼻祖?

--- 第 69 楼来自 MOMOMOMOMO 的回复 (2026-02-14 20:56:42 PST) ---

【引用自 BigDan】:
你提的这两个说实话给seedance提鞋都不配
看完这个回复我准备不再加入讨论了

--- 第 70 楼来自 BigDan 的回复 (2026-02-14 20:57:16 PST) ---

老哥你别杠了,有几篇顶会啊

--- 第 71 楼来自 Labubu 的回复 (2026-02-14 20:57:52 PST) ---

我第一感觉这根本就不是data的问题,如果有data就能解决,那真是有手就行。

我比较震惊的是它有镜头语言,有真实的运镜,而且真的废操作相当少,如果这是抽卡,90%的SSR概率属实是过分了。

--- 第 72 楼来自 MOMOMOMOMO 的回复 (2026-02-14 20:59:25 PST) ---

小弟不才两篇best paper其中一个中奖还跟潭友见过

--- 第 73 楼来自 BigDan 的回复 (2026-02-14 21:00:04 PST) ---

不会是啥student的best吧

--- 第 74 楼来自 MOMOMOMOMO 的回复 (2026-02-14 21:00:56 PST) ---

正会 不过总数确实不多

--- 第 75 楼来自 BigDan 的回复 (2026-02-14 21:02:02 PST) ---

你要是有cvpr iccv的best paper那当我没说过,你对

--- 第 76 楼来自 B1tWiz 的回复 (2026-02-14 21:11:59 PST) ---

有一说一transformer/diffusion和牛逼的产品完全是两个层面的东西

这俩一个2017年一个2015年的,当时大伙真的感受到啥xx时刻了吗

--- 第 77 楼来自 002 的回复 (2026-02-14 21:12:58 PST) ---

技术竞争很厉害,稍微优化一下,老版本就拍死在沙滩上。

大多数公司最后只能挣个吆喝。

到最后生产力确实是上去了,但是大家都没挣到钱。

--- 第 78 楼来自 B1tWiz 的回复 (2026-02-14 21:17:04 PST) ---

只要字节不上市,不管哪边的指数都是挨打的份

--- 第 79 楼来自 xeraz 的回复 (2026-02-14 21:18:17 PST) ---

Long or short?

看了半天没看出你想表达啥

--- 第 80 楼来自 xunzhaocunzi 的回复 (2026-02-14 21:18:27 PST) ---

Nlp不用cnn啊

--- 第 81 楼来自 BigDan 的回复 (2026-02-14 21:19:58 PST) ---

对啊,这两纯老古董了,transformer还是nlp先弄的,当年大概也就resnet的那种震撼吧,效果上accuracy高了点确实,和 gpt seedance 这种偏 gen ai的突破没法比啊

不过cv领域确实有点文青病,看不上偏应用领域突破的,就像LeCun一直看不起当年alpha go大战李世石,说就是reinforce learning

--- 第 82 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 21:22:58 PST) ---

看政府願不願意了

--- 第 83 楼来自 up9080 的回复 (2026-02-14 21:24:19 PST) ---

理论层和应用层的东西比较的意义在哪里…谷歌早都有 LaMDA 了只是没有 chatgpt 更早产品化而已。

--- 第 84 楼来自 BigDan 的回复 (2026-02-14 21:25:18 PST) ---

你这说的是google不想当第一个openai放出chatgpt嘛?为啥就不能客观承认人家突破了很牛逼

很多做research的在几个数据集上刷的效果好不理解要工程大规模应用中间差的十万八千里,demo就是demo

--- 第 85 楼来自 B1tWiz 的回复 (2026-02-14 21:29:49 PST) ---

本脸盲看来,这不就是标准抖音网红脸吗

当然好看就行,俺管你这个那个的

--- 第 86 楼来自 002 的回复 (2026-02-14 21:31:00 PST) ---

与其看卖家秀,大家不如直接去试试?

我刚才试了一下,给了一张图片,出来的视频直接让我一整个大无语。

具体内容就不说了,只能说生成出来的视频stmsmjbwy,白眼可以翻三圈。完全符合我对中概的认知。

--- 第 87 楼来自 gin_m 的回复 (2026-02-14 21:35:34 PST) ---

视频生成的用户base就不多吧 你免费有人用 你开始收费 付费用户肯定不多的

--- 第 88 楼来自 某幺凡 的回复 (2026-02-14 21:39:27 PST) ---

中美成本本来就相差巨大,字节几乎是唯一一家能美国赚钱中国花的公司,自然有一定优势,这点美国公司和中国公司都没法竞争。

--- 第 89 楼来自 Northeast 的回复 (2026-02-14 21:45:50 PST) ---

有何发财机会?以后要是每个人都生成一堆垃圾视频,感觉存储还得涨。

--- 第 90 楼来自 msft 的回复 (2026-02-14 21:45:56 PST) ---

可以追溯到alexnet时期,确实ml这波热潮的鼻祖了。先是computer vision,再到nlp,再到llm。要我说现在又回到了nlp的时代,ie natural language programming

--- 第 91 楼来自 开水烫不烫 的回复 (2026-02-14 21:47:17 PST) ---

youtube肯定要封的啊…你看有多少中国人上传的youtube视频到音乐时就没有声音了. 都是版权问题. 技术上太简单了

--- 第 92 楼来自 xunzhaocunzi 的回复 (2026-02-14 21:49:12 PST) ---

云也得涨吧,利好三大云。

海量的remote calls和计算,三大云供应商大搞云基建是看到了远期的需求?

--- 第 93 楼来自 snapdog 的回复 (2026-02-14 21:53:01 PST) ---

是的 别光看爆了的video, 自己多用用马上就能发现坑点,效果确实好了很多,但你很难说说比veo3好多少,多试试prompt就能发现还是在抽卡…

--- 第 94 楼来自 xunzhaocunzi 的回复 (2026-02-14 21:54:28 PST) ---

请问抽卡是什么意思?,还是生成的图片然后排列组合,有概率生成较好的视频?

--- 第 96 楼来自 suntree 的回复 (2026-02-14 21:56:53 PST) ---

我觉得DeepSeek并没有卷产品力的需求,所以打磨的不是产品,而是算法创新,无论是之前的mHC,还是这次的1M context。字节确实是各方面产品力都非常强,但是我个人认为未来DeepSeek其实是最有可能拿出下一代甚至是颠覆性架构的团队

--- 第 97 楼来自 开水烫不烫 的回复 (2026-02-14 21:58:23 PST) ---

disney已经开始发律师函了. 如果各家IP公司都起诉, 能告到字节破产. 美国这些公司肯定是不敢这么train的. 估计很多分镜之类的都是因为用了这些影视公司有版权的高质量的视频train出来. 个人感觉视频生成这块儿, 版权公司肯定是要分很大一块儿蛋糕的. 就看以后这个行业生态怎么发展了.

https://www.axios.com/2026/02/13/disney-bytedance-seedance

--- 第 98 楼来自 leoqian 的回复 (2026-02-14 21:58:40 PST) ---

seedance 2.0效果挺好的,b站上已经很多用户做的小视频了hhh不过目前感觉真的想做出很好的作品还是有门槛的,不知道下一代会咋样

--- 第 99 楼来自 snapdog 的回复 (2026-02-14 22:01:14 PST) ---

bilibili.com

Seedance2.0废案:钱钱飞走啦!_哔哩哔哩_bilibili

AI生成视频太难了,一键破产, 视频播放量 255、弹幕量 0、点赞数 4、投硬币枚数 2、收藏人数 1、转发人数 0, 视频作者 灵剑2011, 作者简介 ,相关视频:【Seedance2.0】B站首发!Seedance...

比如这个是某个知乎大神的烧的废案合集

就是一个能看的稍长视频背与很多没法用的,然后你的prompt不是完全被align ,时灵时不灵,model好像明白你意思,又好像没有完全明白,所以要多抽几次,来一个中的多的…

--- 第 100 楼来自 002 的回复 (2026-02-14 22:03:35 PST) ---

跟写代码一样

--- 第 101 楼来自 weiweiwieweieiw2192 的回复 (2026-02-14 22:06:02 PST) ---

明白了 繼續該加倉的加倉了 二創跟一堆新聞全是完美片 但是這個應該就是實際體驗狀況了

--- 第 102 楼来自 B1tWiz 的回复 (2026-02-14 22:08:22 PST) ---

mHC其实也是改进的字节之前的工作 (HC)

https://arxiv.org/pdf/2409.19606

--- 第 103 楼来自 ootiger 的回复 (2026-02-14 22:19:37 PST) ---

无敌法务启动!

--- 第 104 楼来自 skywing 的回复 (2026-02-14 22:23:38 PST) ---

自从在字节呆过我就开始吹字节了,虽然用来对比的亚麻本来就过于垃圾,但是字节的ML基因我认为是其他公司难以超越的。数之不尽的好用的能力API,超低成本超高卷度的国内工程师提供infra支持,便宜的标注团队,庞大的国内数据库。

其中能力API最是一绝,要做什么数据处理都不需要自己搞,直接搜内部的相关API调用,基本上效果就完全够用。

这一切都是任何一家其他公司都难以比拟的,外国公司在低劳动力成本地区再怎么建分公司都会水土不服管不好也无法充分利用人力。而字节从低成本地区开始运作,背靠中国超高质量的人均义务教育+高等教育所产出的人才。国内的教育模式不一定能量产天才,但量产好用听话的优秀人才还是很靠谱的。

要不是美国制裁,铁定锤爆一帮美国大厂。

--- 第 105 楼来自 AdamW 的回复 (2026-02-14 22:29:23 PST) ---

【引用自 BigDan】:
bytedance 26 年只烧 200 亿的,而 google 一家 26 年就要烧 2000 亿
逆天比较方法,Google是gemini flash/pro, veo, genie, alphaproof和一大堆未知的东西摊开同时做,只训个video gen成本当然低了,seed家别的东西又远称不上sota。更何况traffic和inference cost也差远了
【引用自 BigDan】:
用的比国内好得多的硬件
国内是个大厂基模团队都有千卡a100/h100集群,渠道多了去了

--- 第 106 楼来自 AdamW 的回复 (2026-02-14 22:32:21 PST) ---

【引用自 BigDan】:
你提的这两个说实话给seedance提鞋都不配
??seedance的backbone不是DiT?

我说实话seedance moment和deepseek moment一样本质上都是伪概念,无非是宣发猛吹+大众第一次用reasoning model/video gen感觉好极了,然后就觉得领先了无敌了。其实都不拿御三家 xai比,qwen的llm/vlm我就觉得一直是国内领先的,比ds和seed要好,只是阿里内斗赛马传统导致宣发不力
【引用自 suntree】:
mHC
mHC就是一坨,跟OCR一样都是deepseek家经典造概念编公式水paper,投个三大会能不能中都不好说。ds一年了连个多模态都训不出来,现在的水平都不用说跟qwen seed比,就算跟zhipu kimi minimax这些第二梯队的比都不如

--- 第 107 楼来自 258 的回复 (2026-02-14 22:34:34 PST) ---

transformer架构再做一百年还是这样的

你dit出来的解就是不可控的

--- 第 108 楼来自 watercooler 的回复 (2026-02-14 22:36:30 PST) ---

【引用自 BigDan】:
而且主流媒体和上次 deepseek 一样压热度
今天车上的广播里全都是报道 Brad Pitt and Tom Cruise 这个视频的。整个报道的情绪和口吻,最后是导向(1)挤占 Hollywood 的就业(2)版权。这两点炒起来,足够让周受资今年再去国会报个到了。

不知道吃到美国业务拆分蛋糕的几家 lobbying 的能力怎么样了,希望不要到最后又是一个封杀。

--- 第 109 楼来自 假节钺 的回复 (2026-02-14 22:36:41 PST) ---

【引用自 skywing】:
不一定能量产天才
天才还能量产吗?我觉得能做到的只是提供科研环境,保证生活质量,然后听天由命

--- 第 110 楼来自 skywing 的回复 (2026-02-14 22:38:02 PST) ---

教育也是必要条件吧

--- 第 111 楼来自 假节钺 的回复 (2026-02-14 22:39:47 PST) ---

是的,我说的不严谨,应该是教育加研究体系。就像杨振宁钱学森那些人不去美国肯定发挥不出来,因为那时候国内一穷二白,现在相对好多了,天才也能有一些用武之地了

--- 第 112 楼来自 skywing 的回复 (2026-02-14 22:41:56 PST) ---

习屠龙术得有龙可屠,国内以前基本的生产体系还没建成,别说高精尖研发了,自然用不着天才们push the limit

--- 第 113 楼来自 折木奉太郎 的回复 (2026-02-14 22:42:34 PST) ---

如果没谈拢,检测到生成了直接屏蔽就完事了。这样用了也没有证据。

而且就算是剔除了电影电视之类的法务影视公司,其他无法起诉的素材也足够训练了。

--- 第 114 楼来自 折木奉太郎 的回复 (2026-02-14 22:45:29 PST) ---

【引用自 skywing】:
数据处理
【引用自 skywing】:
内部的相关API
这个能举个例子吗,挺好奇的

--- 第 116 楼来自 MOMOMOMOMO 的回复 (2026-02-14 22:47:35 PST) ---

自从前几年发现在美国字节给的比其他大厂都要高很多我就觉得十分有八分的不对劲

--- 第 117 楼来自 假节钺 的回复 (2026-02-14 22:51:22 PST) ---

【引用自 MOMOMOMOMO】:
美国字节给的比其他大厂都要高很多
纯属扯淡。。。首先总包没高很多,其次其他大厂都是可以直接卖的股票,字节的纸钱什么情况都不好说,更不用说wlb根本没可比性

--- 第 118 楼来自 MOMOMOMOMO 的回复 (2026-02-14 22:54:32 PST) ---

cash也多吧 前年收到过offer 周围人只知道去了一个不到一年就跑了了

--- 第 119 楼来自 snapdog 的回复 (2026-02-14 22:54:59 PST) ---

qwen edit 从发布以来prompt alignment以来肉眼可见的变好 每一版都在进步 ,所以我并不认为抽卡是个无法解决的问题,就好像lecun看不上LLM并不影响LLM快把大家工作都干没了….

--- 第 120 楼来自 假节钺 的回复 (2026-02-14 22:56:06 PST) ---

cash才能差几万。。都是靠rsu

--- 第 121 楼来自 258 的回复 (2026-02-14 22:59:02 PST) ---

【引用自 snapdog】:
抽卡是个无法解决的问题
纯transformer或者任何深度学习都无法解决

数学上可以严格证明

现在的提升都是工程的进步

--- 第 122 楼来自 假节钺 的回复 (2026-02-14 23:02:40 PST) ---

【引用自 258】:
现在的提升都是工程的进步
是的,因为智子封锁了地球科技

--- 第 123 楼来自 MOMOMOMOMO 的回复 (2026-02-14 23:03:14 PST) ---

个人dp是不止,而且跟去年的metamsl比不了但是前年seed多个30%应该也有吧(纯不负责任猜测)纸钱的话纯靠个人信仰但我反正给再多也不去因为信仰不在那

--- 第 124 楼来自 peridot 的回复 (2026-02-14 23:04:07 PST) ---

seed那部分得分开算,不然meta的tbd来了全杀了

--- 第 125 楼来自 Wsnd 的回复 (2026-02-14 23:04:33 PST) ---

完了 周一 又要血洗

--- 第 126 楼来自 MOMOMOMOMO 的回复 (2026-02-14 23:06:55 PST) ---

那我改严谨一点 我意思当时的seed vs 当时的dm 和当时genai之类的

--- 第 127 楼来自 假节钺 的回复 (2026-02-14 23:10:03 PST) ---

【引用自 MOMOMOMOMO】:
而且跟去年的meta比不了
meta一直都差不多tier2的样子?(虽然tier1总换公司 )每年按照通胀涨点,还是说你算rsu涨幅。。那控制不了吧?当然如果你说的super intelligence 1个亿那些那我就不懂了

--- 第 128 楼来自 假节钺 的回复 (2026-02-14 23:11:17 PST) ---

【引用自 snapdog】:
就好像lecun看不上LLM并不影响LLM快把大家工作都干没了
也把他自己工作干没了 虽然他这个地位无所谓工作

--- 第 129 楼来自 cnxcnx 的回复 (2026-02-14 23:13:21 PST) ---

怎么也不至于tier2,比他高的都是纸钱居多,genai当时match oai并不低

--- 第 130 楼来自 假节钺 的回复 (2026-02-14 23:14:41 PST) ---

我说的sde,ai那些太高了我不懂

--- 第 131 楼来自 MOMOMOMOMO 的回复 (2026-02-14 23:18:28 PST) ---

我以为我们在比较各个公司的头部 梦想总是要有的吧

语境我想说的是MSLtbd

--- 第 132 楼来自 peridot 的回复 (2026-02-14 23:23:32 PST) ---

可是MSL拿的包跟非TBD的人一样啊

--- 第 133 楼来自 258 的回复 (2026-02-14 23:24:30 PST) ---

【引用自 假节钺】:
super intelligence
ssi估计是唯一一个潜心研究新架构的

听说伊莉娅为了想这个头已经彻底秃了

但愿能有突破

--- 第 134 楼来自 MOMOMOMOMO 的回复 (2026-02-14 23:25:33 PST) ---

那就tbd 老扎没给我打电话我也不知道tbd和msl有什么区别

--- 第 135 楼来自 BobbyB 的回复 (2026-02-14 23:26:37 PST) ---

这个结尾的巨乳我seedance之前早就见过了,本来就是有人以前做的梗图,都是些没文化的觉得这东西简单prompt一下AI就能做出来

--- 第 136 楼来自 peridot 的回复 (2026-02-14 23:27:53 PST) ---

【引用自 258】:
伊莉娅
哪来的变态萝莉控
【引用自 258】:
已经彻底秃了
看他之前的头发也就这样,这种事情赖不得工作

--- 第 138 楼来自 拍背背 的回复 (2026-02-14 23:31:22 PST) ---

如果基金经理不买道指就给他们加关税,一切都会好起来的

--- 第 139 楼来自 假节钺 的回复 (2026-02-14 23:41:13 PST) ---

【引用自 258】:
已经彻底秃了
【引用自 peridot】:
看他之前的头发也就这样,这种事情赖不得工作
只有变秃才能变强

--- 第 140 楼来自 争取多活两年 的回复 (2026-02-15 00:08:53 PST) ---

现在主要矛盾是这个仗谁来指挥的问题。本来花街让奥特曼当个的先锋,结果丫自己搞串联想上位。

--- 第 141 楼来自 whtf 的回复 (2026-02-15 00:15:56 PST) ---

芯片团队规模化招聘怎么看

--- 第 142 楼来自 h100 的回复 (2026-02-15 01:10:06 PST) ---

【引用自 AdamW】:
国内是个大厂基模团队都有千卡a100/h100集群
不过总共只有千卡级别的话只能train小模型了

--- 第 143 楼来自 AWS 的回复 (2026-02-15 02:35:35 PST) ---

国内现在融资,资金热点也就那么几个

ai,芯片,商用航天,机器人

--- 第 144 楼来自 Yangff 的回复 (2026-02-15 02:44:55 PST) ---

赢不赢的无所谓,是不是该把NVDA、MSFT之类的卖了等下个月抄底大家给个准的

--- 第 145 楼来自 fmvp742637 的回复 (2026-02-15 02:59:11 PST) ---

字节可以把开源当作核武器 一旦开源,每个人都可以自己部署自己生成,版权法就可以实质上被架空了

--- 第 146 楼来自 windrunner 的回复 (2026-02-15 04:36:10 PST) ---

【引用自 BigDan】:
1/8 的成本已经弄出来了
这个我不信。。弄出来了还放贵8倍的模型出来烧钱?

--- 第 147 楼来自 windrunner 的回复 (2026-02-15 04:37:09 PST) ---

seedance是真好用

--- 第 148 楼来自 whtf 的回复 (2026-02-15 05:50:17 PST) ---

生物医疗医药方面其实也不少

--- 第 149 楼来自 qwaszx 的回复 (2026-02-15 05:51:20 PST) ---

deepseek gpt Gemini sora seedance这些玩意我目前看不出有啥正经用处,娱乐娱乐没啥问题,快速给个ppt草稿,但是欧美显然现在的估值不是期待这些,还是price in解放生产力的变革,我看不到。从这个角度,AI撑不起这么高的价值

--- 第 150 楼来自 maxmaxmax 的回复 (2026-02-15 06:35:34 PST) ---

醒醒周一不开盘…

--- 第 151 楼来自 JFK 的回复 (2026-02-15 06:52:22 PST) ---

DeepSeek的点应该是找到了一个优化算法/公式。他们只是一个quant公司没想着做一个chatbot产品,所以用起来是很难用的

--- 第 152 楼来自 qwaszx 的回复 (2026-02-15 07:09:19 PST) ---

感觉比Gemini在中国问题上好用。尤其是旅游规划,ds非常xhs视角,而gpt感觉是老外视角。

--- 第 153 楼来自 jdaon 的回复 (2026-02-15 07:20:24 PST) ---

我觉得ds至今还是中文水平最高的

--- 第 154 楼来自 bumblebee 的回复 (2026-02-15 07:23:27 PST) ---

seedance 2这波到现在,各大版权方都已经发律师函了,中美日法

市场是非理性的,长短视频就不是一个赛道,电影业也不至于说被颠覆,当然不影响市场情绪起来了搞一波估值调整
【引用自 未知】:
NFLX也许可以入手了 股市投资
这两天明显是被字节的seedance 2模型给带了一波节奏
成本1/8和3.0这个,我觉得可能是和DS当年的说法一样,永远无法求证

--- 第 155 楼来自 人类黄昏 的回复 (2026-02-15 07:40:41 PST) ---

这个的颠覆性不如deepseek出来的时候,一个次要赛道的阶段领先而已。值得恭喜,但这么急着半场开香槟,当年捧杀deepseek的也是你这种人。AGI还任重道远,用小成本办大事和砸大钱探索虚渺的未来都是在为AGI铺路,别总盯着东西对抗的叙事

--- 第 156 楼来自 qwaszx 的回复 (2026-02-15 08:15:26 PST) ---

【引用自 人类黄昏】:
探索虚渺的未来
我觉得大概率指个性化广告

--- 第 157 楼来自 Glovic 的回复 (2026-02-15 08:39:04 PST) ---

变现模式应该是现在所有ai都面临的问题,也是大家认为泡沫很大的原因,投入不可持续。

--- 第 158 楼来自 random_reader 的回复 (2026-02-15 08:39:15 PST) ---

Seedance真是太牛了,真人版复刻进击的巨人那段视频好惊艳,搞得我都想去试试重制灌篮高手的山王篇 = = 井上雄彦的电影版就是 (跑题…..

--- 第 159 楼来自 xunzhaocunzi 的回复 (2026-02-15 09:03:33 PST) ---

确实,不能边复制别人的成功,边嘲笑别人花大钱办小事

--- 第 160 楼来自 36963 的回复 (2026-02-15 09:53:04 PST) ---

【引用自 skywing】:
要不是美国制裁,铁定锤爆一帮美国大厂。
这句话说反了……

--- 第 161 楼来自 一块砖 的回复 (2026-02-15 09:53:50 PST) ---

长江后浪推前浪,前浪死在沙滩上

没前浪哪来的后浪,后浪还不停的嘲讽前浪咋不站起来呢

--- 第 162 楼来自 skywing 的回复 (2026-02-15 09:56:26 PST) ---

没什么例子啊,你能想到的洗数据的需求基本都有API,不需要自己翻开源模型甚至训开源模型。

--- 第 163 楼来自 lancelot101 的回复 (2026-02-15 10:06:48 PST) ---

这个update主做了好久了,YT根本不管

--- 第 164 楼来自 Northeast 的回复 (2026-02-15 10:18:15 PST) ---

别别别,这个频道很好,紧跟时事,而且说的都是大实话。

YT目前屏蔽的都是原版的音乐和视频,这个频道的ai按道理算侵犯肖像权,不算侵犯版权。

--- 第 165 楼来自 002 的回复 (2026-02-15 10:24:53 PST) ---

【引用自 人类黄昏】:
AGI
现在我看到的大都是自己搞了一点基于LLM的应用,然后硬要往AGI上靠,然后大吹特吹。

我觉得LLM只是AGI的一个组成部分,LLM只解决了语言问题,还有很多地方其它地方需要探索。按目前的状态,远未达到AGI的水平。

学术界也好,工业界也好,媒体也好,大家心里想的都是怎么趁着LLM的投资风口快速捞钱,而不是怎么实现AGI。

--- 第 166 楼来自 xunzhaocunzi 的回复 (2026-02-15 10:37:35 PST) ---

婴儿智力低下,但你不能说他们不智能

llm目前局限还很大,但在code这种领域已经大放异彩,随着更大规模的应用,我感觉会有天翻地覆的变化,说不定就弄出了agi

--- 第 167 楼来自 002 的回复 (2026-02-15 10:43:50 PST) ---

看怎么定义“智能”了,如果婴儿有“智能”的话,那所有的算法都是“智能”。
【引用自 xunzhaocunzi】:
code这种领域已经大放异彩
效率的确提升了,这是LLM的功劳。我目前还是觉得Claude是个大号的搜索引擎、大号的auto completion。

AGI我暂时还没看到,我也不指望基于next token predictor能开发出智能。或许在不久的将来有人能开发出来吧,谁知道呢。

--- 第 168 楼来自 Onvon 的回复 (2026-02-15 10:54:11 PST) ---

从公司presentation上听来的

我们email和ads上有很多那种3d动物和场景图片 之前都是animator在blender里手k然后渲染的 做一个版本最少都要2小时

现在用之前的asset训练了一个lora, 据说10分钟就能生成出想要的形象 还有几种版本可选

不知道给他们做外包的studio是不是丢了contract, 大公司有大把的合法assets拿来训练模型 个人创作者会被挤压的很惨

--- 第 169 楼来自 xxxyyy 的回复 (2026-02-15 12:16:21 PST) ---

但seed不是对标的deepmind什么的嘛,本身就要高一些吧。

而且字节的普通sde本身也比其他大厂高点吧。光是现在rsu变成三年发完就吊打很多公司了(反观亚麻的第一年RSU 5%),有回购就不算纸钱

--- 第 170 楼来自 BigDan 的回复 (2026-02-15 13:10:11 PST) ---

https://www.reddit.com/r/GeminiAI/s/ZGYX49G1U6

这个大熊的也还行

--- 第 171 楼来自 BigDan 的回复 (2026-02-15 13:19:57 PST) ---

龙战于野,激情对射

https://www.reddit.com/r/ChatGPT/s/TXinnVjxeu

--- 第 172 楼来自 DeutscheGrammophon 的回复 (2026-02-15 13:25:15 PST) ---

现在的ai已经能打败tendril这种顶级工作室了么,感觉他们很多作品都无从prompt

还有就是,像我这种强迫症就只信任物理渲染器,AI给出的结果不一定准确这一点就让我很抓狂了

--- 第 173 楼来自 Northeast 的回复 (2026-02-15 13:35:20 PST) ---

这几个生成的比较好的都是有高质量原版视频的(aka版权警告),有点像视频洗稿的感觉。

--- 第 174 楼来自 BigDan 的回复 (2026-02-15 13:37:59 PST) ---

感觉还是需要技巧,就像原来是码农用起来知道怎么max效率,没写过代码会差一点

做的比较好的估计本来就有视频制作基础或者之前就用过ai辅助创作

--- 第 175 楼来自 柳湘寒 的回复 (2026-02-15 13:47:15 PST) ---

【引用自 BigDan】:
image543×305 70.6 KB
确实火爆了

--- 第 176 楼来自 happyorange 的回复 (2026-02-15 15:25:26 PST) ---

不错是不错,但说实在,这种的AI视频现在都烂大街了,99%没灵魂,看多了很快就腻了,我都直接跳过

--- 第 177 楼来自 qwertyuiopqaz 的回复 (2026-02-15 16:49:47 PST) ---

单纯好奇seedance2.0有多少参数 现在开源的video gen模型都太垃圾了 不知道能不能倒逼一波厂商开源一些视频模型

--- 第 178 楼来自 michaelzxp 的回复 (2026-02-15 17:01:41 PST) ---

凭借庞大的人口基数和素质水平,目前玩应用级产品绝对领先世界一个时代

--- 第 179 楼来自 yzchn 的回复 (2026-02-15 17:58:17 PST) ---
--- 第 180 楼来自 davidx 的回复 (2026-02-15 20:36:27 PST) ---

贾科长 Dance 太牛了 微信视频号搜 豆包发的

image1320×2868 273 KB

--- 第 181 楼来自 争取多活两年 的回复 (2026-02-15 21:41:48 PST) ---

你说的没错。genAI生成的99%都是垃圾。所以以后专业人士主要任务是鉴定垃圾。

冷战后人类主要科技进步在于降低了垃圾生产的边际成本。

--- 第 182 楼来自 AdamW 的回复 (2026-02-16 01:38:42 PST) ---

【引用自 qwaszx】:
price in解放生产力的变革
变革还少吗?coding已经很厉害了,STEM能力也在稳步推进,在写东西、搜资料、教育方面都能发挥很大的作用

--- 第 183 楼来自 jnnksn 的回复 (2026-02-16 03:21:02 PST) ---

AGI起码得能代替所有科学家批量生产nature级别的论文吧,感觉还早

--- 第 184 楼来自 xunzhaocunzi 的回复 (2026-02-16 05:31:19 PST) ---

这太过了吧,几个人能批量写nature论文?

真到那时,人类感觉已经无用了,变成宠物了,就像现在的猫猫狗狗

--- 第 185 楼来自 Nokuno 的回复 (2026-02-16 05:55:55 PST) ---

不二,我排队排一晚上了都没排到。真就特色AI啊。。。

--- 第 186 楼来自 zzr215 的回复 (2026-02-16 06:45:53 PST) ---

贾科长Dance真的可以,专业人士拥抱AI,算是sneak peek,看看导演能拿AI干啥

搜了一下,这个X能看

x.com

@

--- 第 187 楼来自 random_reader 的回复 (2026-02-16 07:03:39 PST) ---

连搞探索性工作的科研都被AI替代的话,那人类确实没什么好干的了。。。科研又不赚钱,怎么想感觉都是最后受到冲击的那波?

--- 第 189 楼来自 Onvon 的回复 (2026-02-16 08:02:41 PST) ---

不知道他们的partner是哪家工作室

不需要动画 简单来说就是摆pose然后拍照

可能技术含量比较低吧

--- 第 190 楼来自 Tangshy 的回复 (2026-02-16 08:20:03 PST) ---

可以通过政治施压造成隔离,就是你的软件不能用在西方,这样造成应用隔绝,也可以在各自区域有一定定价权

--- 第 191 楼来自 HotSpring 的回复 (2026-02-16 09:45:05 PST) ---

目前SD2能造成话题的产出都是含有侵权内容的,这在拥有好莱坞的美帝是不可接受的。这也是为啥无视版权的老中在视频ai方面能超美帝,美帝规制太多。

而文字类ai情况则相反,美帝相对老中有优势。

SD2目前问题是如何创作出无任何侵权(包括且不限于内容创作权,肖像权)且能爆火的内容

--- 第 192 楼来自 非交换几何 的回复 (2026-02-16 09:46:41 PST) ---

【引用自 HotSpring】:
含有侵权内容
俺寻思之前chatgpt的吉卜力风格图片大家也玩得挺开心的

--- 第 193 楼来自 258 的回复 (2026-02-16 09:48:33 PST) ---

导演肯定开心啊 本来摄像演员不一定能忠实还原导演的想法 现在随便搞了

看完全片 如果这部片完全没有后期修改的话电影工业已经结束了

这部五分钟的短片如果要实景拍摄传统渲染的话制作成本应该在500万-1000万级别

借用原片的话 只有大脑有用 传统手脚可能要另谋出路了

--- 第 194 楼来自 a66 的回复 (2026-02-16 09:53:39 PST) ---

【引用自 非交换几何】:
吉卜力风格
风格没有版权,但角色有

--- 第 195 楼来自 zzr215 的回复 (2026-02-16 10:33:13 PST) ---

贾科长算是很拥抱新技术的,当年iPhone拍电影也是贾科长先带火的,虽然谈不上颠覆,但也一定程度上改变了电影产业。

现在是AI,Seedance才出来没多久,贾科长官宣想用AI拍也没几天,这成片就出来了。我预言最晚今年下半年,第一部纯AI的90分钟长片应该就能拍出来了。这回真是产业地震,漫威不是跟特效师打吗,凯文费奇激进点Avanger 5后期直接转AI都行(不过这事好莱坞估计没戏,应该还是东大先上)

--- 第 196 楼来自 258 的回复 (2026-02-16 10:46:24 PST) ---

贾科长还是第一批red用户

--- 第 197 楼来自 jnnksn 的回复 (2026-02-16 12:15:50 PST) ---

现在各种benchmark都是做题,科研本质也是做题吧

--- 第 198 楼来自 jnnksn 的回复 (2026-02-16 12:16:46 PST) ---

【引用自 xunzhaocunzi】:
几个人能批量写nature论文?
真到那时,人类感觉已经无用了,变成宠物了,就像现在的猫猫狗狗
但是人会累,机器只需要用电,单单24小时运行一点人就输了

--- 第 199 楼来自 menggao239 的回复 (2026-02-16 12:28:33 PST) ---

所以我大苹果已经赢了,留着CAPEX不用,等着泡沫破了捡筹码??

--- 第 200 楼来自 MOMOMOMOMO 的回复 (2026-02-16 12:35:43 PST) ---

悖论! 能批量些出来的 就一定不是nature录用的文章

--- 第 201 楼来自 xunzhaocunzi 的回复 (2026-02-16 12:47:52 PST) ---

到时人类review的文章都是野鸡论文,今后顶刊必须要llm来review

--- 第 202 楼来自 menggao239 的回复 (2026-02-16 12:51:36 PST) ---

AGI还差得太远。感觉大家主要都是应用学科,没有那种无力感。。 AGI在物理标准模型大一统前感觉没有希望。 现在底层的物理都还是个混沌的。。在上面搭积木指望AGI是不是有点天方夜谭。。目前的计算物理学连最基本的单原子键长算出来的精度都低的可怕。 然后那potential算supercell就跟盲人摸象一样。。

--- 第 203 楼来自 up9080 的回复 (2026-02-16 12:52:46 PST) ---

【引用自 zzr215】:
Seedance才出来没多久,贾科长官宣想用AI拍也没几天
应该是 release 之前字节已经和他联系了

--- 第 204 楼来自 Cookies 的回复 (2026-02-16 13:00:09 PST) ---

罚晨读背一百遍 More Is Different。AGI能不能实现跟粒子物理学有什么关系?

--- 第 205 楼来自 random_reader 的回复 (2026-02-16 13:13:04 PST) ---

科学的本质就是创新—江泽民

反正从我的领域看,真正有用的paper都有创新性的idea,可不是参照模版做题。不过灌水类文章另说了。。。我倒是很希望在AI带动下经济腾飞能有更多人去追求纯粹的学术,本世纪末之前人类有没有机会完全攻克癌症。。。

--- 第 206 楼来自 jnnksn 的回复 (2026-02-16 14:53:21 PST) ---

但是有了idea之后剩下的就是做题吧,idea也能批量生产就好了

--- 第 207 楼来自 richardfatman 的回复 (2026-02-16 21:03:43 PST) ---

不能解决quantum gravity的ai不能算agi

--- 第 208 楼来自 sns你是 的回复 (2026-02-17 14:12:55 PST) ---

不民主的ai能用吗?

全都给我去用sora

--- 第 209 楼来自 Onvon 的回复 (2026-02-17 19:04:52 PST) ---

额…你先自己画简单的分镜

再丢进去让他生成视频就行了

难道原创的东西就不能用sd2做出来?老早之前就有动画公司用ai上色了

而且sora也没好到哪去 我敢打赌人肯定用了ytb和tiktok上的视频训练

openai可没给这些创作者支付一分钱

--- 第 210 楼来自 BigDan 的回复 (2026-02-17 22:01:20 PST) ---

https://www.tiktok.com/t/ZP8x1ghth/

--- 第 211 楼来自 258 的回复 (2026-02-17 22:01:59 PST) ---

我测上来就是达姆弹

--- 第 212 楼来自 HotSpring 的回复 (2026-02-18 06:27:58 PST) ---

能用于影视工业的ai一定是能满足导演各种精细化要求的,而且不能有版权风险。这在老中还好说,在美帝,你去跟好莱坞这个犹太资本自留地辩解去吧。而且好莱坞要是抗议到老中,老中肯定也不得不给面子的

--- 第 213 楼来自 BigDan 的回复 (2026-02-18 13:12:04 PST) ---

小师妹来落云宗报道了!

https://www.tiktok.com/t/ZP8xJV4Qj/

--- 第 215 楼来自 MOMOMOMOMO 的回复 (2026-02-23 12:21:17 PST) ---

x.com

@

--- 第 216 楼来自 chris2024 的回复 (2026-02-24 19:24:09 PST) ---

在推上高谈阔论用中国ai做擦边视频。