传统行业的人不用担心AI,因为AI干不过华盛顿的既得利益集团
传统行业因华盛顿的既得利益集团而不会被AI颠覆,AI无法撼动现有监管和垄断结构。算力成本的提升对AI发展影响不大,但AI作为概率模型,其输出的精确性和正确性仍是挑战,尤其是在需要严谨判断的领域。AI无法通过政治献金等方式影响华盛顿,而医疗资源稀缺性是AI难以解决的根本问题。AI的进步是量变而非质变,既得利益集团也可能主动拥抱AI。
1. 关键信息
- (之前已归纳)AI颠覆性不如预期,美国强大的游说团体、政治结构和垄断企业会通过监管规则限制AI的渗透。
- (之前已归纳)强监管行业(如医疗)的准入壁垒(如执照制度)可以被既得利益集团用来限制AI医生。
- (之前已归纳)AI无法修改法律,其发展和应用受制于现有法律框架。
- 算力成本的提升对AI发展影响不大,只是在非必要时会考虑节省。
- (之前已归纳)目前的语言模型本质上是概率模型,其输出的精确性和正确性仍是问题,尤其是在需要严谨判断的场景下。
- (新增)AI无法通过政治献金、社交活动等方式影响华盛顿的决策,而这些是技术在DC立足的关键。
- (新增)医疗资源(如手术室、床位、人员)的稀缺性是AI难以解决的,即使AI能提高效率,也无法直接解决资源总量不足的问题,因此价格可能不会随之下降。
- (新增)AI模型(如Transformer)的概率性使其无法保证100%的正确性,这限制了其在需要极高精确度领域的应用。
- (新增)AI的进步是量变而非质变,它与人类大脑基于统计认知世界的原理相似,因此AI并非从根本上不可靠。
- (新增)既得利益集团可能会主动拥抱AI,并将其纳入自身体系,而非被AI颠覆。
- (新增)管理岗(如“烙印的生态位”)在任何变革中都可能存在需求,取决于个人意愿。
- (新增)AI可以通过多层级的AI审查来压低错误率,使其达到“不可能事件”的范围,如同人类通过审查压低事故率。
- (新增)绝对精确性在现实中不存在,人类驾驶和医疗领域也存在事故率。
- (新增)伟大的公司并非由单一天才建立,而是通过制度优化团队协作。AI目前难以替代一个团队的智慧,因为缺乏相应的“数据集”。
- (新增)2026年的趋势可能是“group agent”,即多个AI协同工作,类似于“三个臭皮匠顶个诸葛亮”。
- (新增)当找到Agent协同工作的核心架构后,可能就不再需要人类,进入“硅基时代”。
- (新增)在整容手术这类极端例子中,AI面临挑战,因为其并非必需,且失之毫厘谬以千里,而人类医生也存在“结果不理想率”。
2. 羊毛/优惠信息
- 无
3. 最新动态
- 无
4. 争议或不同意见
- (之前已归纳)有人认为AI最终会通过定价优势取代人类医生。
- (之前已归纳)有人认为AI能力(如VLA)在几年内会达到高稳定性,但“弄错谁坐牢”是问题。
- (之前已归纳)有人认为AI可以帮助但不会完全替代人类。
- (之前已归纳)有人担心会出现“超事件”阻止AI发展。
- (新增)关于AI的“确定性”和“稳定性”的定义存在分歧,有人认为AI作为概率模型,其输出的精确性和正确性存在不确定性,尤其是在需要精确判断的领域,而另一些人则认为人类也并非100%准确。
- (新增)有人质疑AI在解决医疗资源稀缺性方面的能力,认为其无法解决手术室、床位等物理限制。
- (新增)关于AI是否会比人类更可靠的争论,有人认为AI只是量变,而人类大脑也是基于统计认知世界。
- (新增)关于AI在第三世界国家或对未受教育人群的应用,有人认为即使AI不那么精准,也可能因为省钱而被使用。
- (新增)关于AI是否能完全替代人类团队智慧的讨论,存在“group agent”和“硅基时代”的设想,但目前缺乏相应数据集。
5. 行动建议
- (之前已归纳)关注AI在强监管行业的发展,但要认识到既得利益集团的强大阻力。
- (之前已归纳)考虑AI在医疗等领域的辅助作用,而非完全替代。
- (之前已归纳)在使用AI时,尤其是在需要精确结果的场景下,需谨慎评估其输出的可靠性。
- (新增)认识到技术在政治决策中的作用有限,关系和政治运作更为关键。
- (新增)在评估AI在医疗等领域的应用时,要考虑其是否能真正解决资源稀缺性等根本问题。
- (新增)对AI的“100%正确性”持谨慎态度,理解其作为概率模型的局限性。
- (新增)认识到AI与人类认知方式的相似性,AI的进步可能更多是量变而非颠覆性的质变。
- (新增)关注“group agent”的发展,理解AI协同工作的潜力。
- (新增)认识到在某些领域,如整容手术,AI的挑战可能依然严峻,即使人类医生也存在局限性。
人工智能带来的颠覆性不会像人们预测的那样大。在美国,游说者、根深蒂固的政治结构以及垄断性企业在很大程度上左右着监管规则。
在那些本就高度监管、而且进一步受到游说团体和垄断企业影响的行业里,随着规则不断叠加,真正的变革几乎变得不可能。人工智能既没有投票权,也没有施加影响力的手段,而游说者和企业集团却持续书写着支配整个体系的规则。
对于那些被强大游说力量主导的行业,改变几乎无从谈起。以医疗行业为例——多年来,通过执照制度和监管规定,引进外国医生一直受到限制。如果既得利益集团能够限制医生的准入,他们同样也可以轻而易举地限制甚至阻止“人工智能医生”。
AI能在强监管的传统行业干出一条生路吗?AI能打败华盛顿的既得利益集团吗?
不能
能
0
投票人
【引用自 好运来】:
华盛顿的既得利益集团
为什么不加入AI增加利益
跟美国限制外国医生准入一个道理,已经能躺赚,干嘛要承担风险?
美国的政治稳定器就是利益集团,让美国政府和立法系统啥事都干不成。
势已经来了,只是看AI强大到什么地步而已
在今天的AI能力下,我不会让AI医生机器人给我做整容手术;但是日后真的AI可以异常精准并正确的话,我会考虑让AI医生机器人给我做整容手术
现在医生能赚这么多,以后引入AI为什么能赚更多而不是赚更少。
【引用自 carol1680】:
但是日后真的AI可以异常精准并正确的话
这个日后可能不是十年二十年。transformer模型本身就就注定是不确定的。
你接受法律未必允许。AI无法修改法律
我觉得有可能由公司主导,用定价优势干掉人类医生
AI可以帮助但不会替代
我觉得AI一时半会不会替代人类
但是会不会有人搞出一个足够阻止AI继续发展的超事件就很难说了
所以倒霉的只是程序员们吗
泥潭反指 开始担心了
其实人也是不确定的,感觉再过2-3年VLA就能达到很高的稳定性了,但问题是弄错了谁坐牢的问题
【引用自 xxxyyy】:
transformer模型本身就就注定是不确定的
冷知识
transformer模型的输出是确定的
随机性是人为加上去的
GPU floating point计算不能保证每次完全一样,并且现在多个node的做inference也不能保证顺序完全一致。目前没有任何一家厂商说自己能保证每次inference结果完全一致。
【引用自 Pineapplez】:
GPU floating point计算不能保证每次完全一样
单个SM参与的所有FP操作都可以保证对相同输入每次结果相同
如果不同那么要么是硬件BUG,要么是你家GPU超频超high了——NV GPU在处理图形任务时候会允许频率跳到输出会有小概率出错的频率上,但是工业级模型部署没有人会这么干
【引用自 Pineapplez】:
现在多个node的做inference也不能保证顺序完全一致
你说的是多个SM对结果进行累加时候的浮点舍入误差会由于累加顺序不同产生不同结果
第一,这不是模型本身构架问题而是工程实现误差
第二,无论是训练还是推断中都有对应算法可以获得deterministic的累加顺序来保证deterministic的结果,只不过需要相应地牺牲一些效率罢了
现在应用上没有需要deterministic inference的场景。但是training里有。头部厂需要时候都可以做到
AI公司可以游说国会呀
对,有钱的是大爷!
会不会所有人都用ai给自己看病体检,体检率上来了,需要去医院看病了
就是说deterministic不是做不到而是没人做?
对
算力成本会大大提升对吧?那以后出个法规,特定行业必须deterministic,算力需求一下就又高了
有没有可能AI公司本身就是最大的既得利益集团。看看Peter Thiel和他的硅谷科技右翼,他们游说的力量只会更大。
确实 很多人低估科技巨头的影响力了
【引用自 Blind】:
算力成本会大大提升对吧
没有差很多,只不过没必要的时候省一点是一点
你这跟我说的根本不是一个纬度东西。所有目前的语言模型都说到底是概率模型。
我打个比方你就懂了为什么你和我说的完全不是一个东西。
随机数生成器可以把种子设定成0,给的所有值都是确定的。但这不意味着你用这个随机数搞出来的东西精确且正确的吧…
说白了AI再聪明也不会捐款,不会打高尔夫,不会请议员吃饭。在DC混,技术从来不是第一生产力,关系才是
有道理,技术上始终是存在风险的。不过我觉得很遗憾的一点是只要AI足够省钱,事故比例足够低(对于绝望的穷人来说可能都不会在乎这些,耗尽所有资金就为了一个虚无缥缈的希望),就一定会有人拿它来做事情。
【引用自 有马加奈】:
不过我觉得很遗憾的一点是只要AI足够省钱
一个问题是医疗资源不是网络资源可以随便scale。
一个病人要手术室,要床位,要对应的数量的人员来看护。这些AI都没法解决。如果上了AI,也就只是把手术室排满,那根本也没有解决医疗资源紧张的问题。既然资源没有减少紧张程度,那也没有多少理由会降价。
AI和手术机器人再厉害也不能跑去客户家里做手术不是吗
看我签名
哥们是弃医从文了?
觉得太累了,chickened out
【引用自 xxxyyy】:
问strawberry有几个r,永远都能100%的稳定告诉你有2个r的模型是稳定还是不稳定?能拿来做手术吗
问给你做手术的医生strawberry有几个r你确定对方不写下来数一定100%能答对吗?
这两件事本来就是不相干的事情
正确性、稳定性、收敛性和确定性不管在技术语境里还是学术语境里都是不同的东西,你说“确定”那么就只有一种理解方式
你说的和想表达的不是同一个东西总不能怪到我头上来
但我相信你也不是AI,看得懂我们想说什么吧
这也不是什么学术论文抠字眼环节
意思很明确的,transformer为基础的模型无法保证100%做对一件事,所以很多正确性要求极高的领域很难用。要能拿来做改革这些领域,现在的模型肯定不行,短期内也没看到有解决的迹象
【引用自 xxxyyy】:
看得懂我们想说什么吧
说实话我真的没看懂这句话
【引用自 xxxyyy】:
transformer模型本身就就注定是不确定的
你解释完了我还是没理解你的逻辑链是怎么成立的
AI会犯错给你做手术的人也会犯错,这两件事都是概率发生
你要说LLM是统计模型所以不可靠,那么你需要证明人类大脑工作不是统计模型才能证明LLM从根本上不会比人变得更可靠,否则它就只是一个量变改进问题而不是一个质变构架问题
而事实上经验主义长期以来认为人就是基于统计认知世界的
【引用自 xxxyyy】:
transformer为基础的模型无法保证100%做对一件事
人类可以吗?
其实我有一个问题 即使个别行业没法替代 但是因为其他岗位的消失 大部分人无法负担的情况下 稀缺性不也不存在了吗
我觉得你没看上下文
【引用自 carol1680】:
但是日后真的AI可以异常精准并正确的话
我说这些是为了回复这个论点 ,所以我要说目前模型就是办不到精准 + 正确
异常精准并正确的话
这个语境是跟人比吧?
那就是很宏观的经济学问题了,判断不了呀,谁知道呢
既得利益集团也会加入AI集团
确实,只是你预设的场景还是很文明很现代。我的核心论点是,资本是贪婪的,你可能太小瞧人类的商业兽性了。在第三世界国家,甚至现代国家针对未受过教育的人群,
【引用自 xxxyyy】:
正确性要求极高的领域
其实是不存在的,或者说真正能够做到的人很稀缺。我赞同你说的现在甚至未来短期AI办不到精准和正确,但是有些生意不需要精准和正确就能做。
对,谁说不能调仓呢
对
精准打击卷王老中
我支持收老师的观点。
我经常跟同事argue,不是说AI有多强,而是人类的能力和intelligence被overrated。
然后这些同事跟我扯半天爱因斯坦狭义相对论比水星进动观测早好多年。我心想人类还不如AI 说的就是你们这些人,hallucination比GPT还重
LLM从原理上就结论无法保真,还是算了吧
但是大家可以做烙印的生态位啊,无论什么变革,管理岗总是需要的。就看老钟愿不愿意了
比较支持收老师的观点
AI和人都会犯错,人就是一步步review来压错误率的。现在如果一层层AI review AI的话,也可以把错误压到一个不可能事件的范围。
绝对精确这个事情本身就是不存在的,就像人开车也照样会有交通事故和医疗事故
嗯 对 我很认同这个观点
我举整容手术这个比较极端的例子是因为:1. 很多时候并非必须;2. 这种手术失之毫厘, 谬以千里; 3. 目前人类整容手术医生来做整容手术也失败率(或者说”结果不理想率“)很高
最伟大的公司也不是靠一个天才建立出来的,是靠一套制度优化每个人的工作,然后做出来的。只能说我们现在是想让一个模型去替代一个团体的智慧,但是这个是很难做到的,因为没有这样的数据集。(真实世界里伟大的东西是靠团体建立的),所以2026的基调是group agent,类似于三个臭皮匠顶个诸葛亮。
等大家找到了一条agent 一起工作的核心架构之后,确实不需要人了,那个时候就是硅基时代了