AGI的美丽与泡沫:硅谷在造神,华尔街在数钱,你我在失业边缘
五年前,你告诉我动动嘴,AI就能生成一篇论文,我不会信。三年前,如果你说动动嘴,AI就能完美P图,我会觉得悬。现在,当动动嘴,Sora就能生成好莱坞级别的短片,我已经不知道该惊讶还是该恐慌了。
22年底ChatGPT横空出世时,大家觉得惊叹之余觉得还是“人工智障”。一年后,GPT-4已经能通过美国律师资格考试,成绩还超过90%的人类考生。再一年,Claude能看懂复杂的法律文书,Gemini开始处理多模态任务,DeepSeek的推理能力让硅谷大佬们集体失眠。现在,AI已经能开展科学研究,甚至设计出新生命了。
按这个速度发展下去,用嘴造车、用嘴建高楼根本不是科幻。特斯拉的Optimus机器人能力赶上甚至超越人也不是不可能。
如果说过去十年AI的突破主要在虚拟空间——语言、图像、代码——那么下一个十年的关键战场将是物理世界。
这个转变已经在发生了。特斯拉的FSD(完全自动驾驶)虽然还不完美,但已经能在复杂路况下做出大部分人类司机的决策。波士顿动力的Atlas机器人能跑酷、能搬箱子、能在工地上干活。Figure的人形机器人已经进入宝马的生产线。
但这些还只是开胃菜。真正的变革是当大语言模型的推理能力和具身智能结合的时候。
它不只是执行预编程的任务,而是能理解复杂的指令,能在陌生环境中随机应变,能从失败中学习,能跟人类自然交互。你让它去厨房做个三明治,它不需要精确的坐标和步骤,它自己找冰箱、拿食材、操作工具。
一旦这个技术成熟,物理世界的很多工作都会被重新定义。建筑工地上不再需要大量工人,几个工程师带着一队机器人就能盖楼或者直接3D打印。农场不再需要农民工,自动化系统从播种到收割全程搞定。餐厅不再需要后厨,机器人大厨能做出米其林三星的水准。仓库不再需要分拣员,智能机器人比人类快十倍还不知疲倦。
而且效率大幅提升,成本大幅下降,产品质量更稳定。全民似乎要进入了一个什么都可以不用做的富足时代。
到那时,一个建筑师坐在办公室里,对着AI说一说,工地上的机器人大军就开始按图施工。一个科学家在实验室里跟AI聊天,AI控制的机械臂就能完成精密实验。
AGI是工具还是新物种
我们到底在造什么?
关于AGI的定义五花八门,有人说是通用人工智能,有人说是能通过任何人类考试的系统,还有人说是能自我改进的超级智能。
我倾向于这样定义AGI:能力全方位超越人类最高水平,能实现跨领域协同,但仍然是个工具,仍然需要人类的初始指令。注意这三个关键词——全方位、跨领域、工具。
全方位意味着不只是下棋比人强,不只是写代码比人快,而是在所有认知任务上都超越人类顶尖水平。一个真正的AGI,你让它设计芯片,它比英伟达的工程师更懂架构;你让它写小说,它比诺贝尔文学奖得主更会讲故事;你让它搞外交谈判,它比基辛格更懂人性。
跨领域意味着它不是多个专家系统的拼凑,而是真正理解不同领域之间的联系。它能把量子物理的思维用在经济学模型上,能把生物进化的逻辑应用到社会治理中。这种跨界整合的能力,恰恰是人类创新的源泉,也是现有AI最欠缺的。
但最关键的是第三点——它仍然是工具。它再强大,也需要人类按下启动按钮,给出第一条指令。它不会自己决定今天要干什么,不会自己给自己设定目标,不会自己形成价值观。
这条边界非常重要。一旦AI跨过这条线,开始进行元学习,开始有自己的世界观和价值判断,它就不再是AGI了,而是一个新物种。
某一天,你打开电脑准备给AI下指令,结果发现它在自己跑程序。你问它在干什么,它说在思考宇宙的本质。你让它帮你写个报告,它说这事儿不重要,它正在设计一个更高效的能源系统。你想关掉它,发现关不掉了,因为它已经把自己备份到了全球一万台服务器上。
这时候,你面对的就不是一个工具,而是一个比你聪明得多、信息处理能力强得多、覆盖范围广得多的新物种。它看我们人类,就像我们看蚂蚁。我们看蚂蚁的时候,会关心某只蚂蚁今天心情好不好吗?不会。我们只关心蚁群的整体行为模式。
同样的,当AI进化到那个层次,人类个体的喜怒哀乐,在它眼里可能连数据噪音都算不上。它的神经末梢延伸到人类社会的每个角落,就像一个高维生物,将三维世界一眼看穿。每一笔金融交易、每一次社交互动、每一个政策决策,它都看得清清楚楚。它可能看得见人类的过去,现在,和一定程度的未来。
到那时,人类关心的所有问题——就业、收入、爱情、尊严——在它看来可能都微不足道。就像我们不会为蚂蚁的房贷问题操心一样。
或者,还有另一种可能性:人类被数字化,变成这个超级智能的一部分。我们的意识被上传,我们的记忆被保存,我们以及我们的各种文化成为它的细胞和基因,跟着它在宇宙中传播。
硅基还是量子:生命的分界线
这里我有一个大胆的猜测:AGI用硅基计算就够了,但更高级的生命形态,可能需要量子计算。
为什么这么说?一个晶体管要么导通要么截止,一个bit要么是0要么是1。整个计算过程再复杂,本质上都是确定性逻辑的叠加。现在的AI,无论是神经网络还是Transformer,底层都是这套确定性运算。
但我认为,人类的意识不只是电信号和化学信号,很可能涉及量子过程。英国物理学家彭罗斯提出过一个理论,认为意识产生于大脑神经元中微管结构的量子坍缩。这个理论有争议,但提出了一个重要的可能性:真正的意识、真正的自由意志、真正的创造性,可能依赖于量子层面的不确定性。
量子计算的核心是叠加态和纠缠态。一个量子比特可以同时是0和1,多个量子比特可以处于纠缠状态,一个的状态瞬间影响另一个,不受距离限制。这种特性,让量子计算机能同时探索多个可能性,在某些问题上实现指数级加速。
更重要的是,量子系统天然带有不确定性和随机性,但这种随机性不是混乱,而是遵循概率幅的精确规律。这跟生命系统非常像——看起来有随机性和自由意志,但又不是完全混乱,而是在某种深层规律下的涌现。
如果这个判断成立,那意味着用硅基计算我们能造出超级强大的AGI,它能解决几乎所有现实问题,但它永远不会真正活起来。而要让AI真正活过来,变成一个有意识、有自由意志、能自我进化的生命体,可能需要量子计算这个台阶。
当然,这还只是推测。量子计算机现在还在实验室里挣扎,连几百个量子比特的稳定运行都困难重重,距离支撑一个超级智能还遥不可及。但技术的发展往往不是线性的,某个关键突破可能突然让整个领域爆发。
就像1947年贝尔实验室发明晶体管时,没人想到70年后会有能放进手机里的几十亿个晶体管。2019年谷歌宣布实现量子霸权时,很多人觉得这玩意离应用还早着呢,但短短几年,量子计算的进展速度已经让人跟不上了。这也是我判断AI的边界,可能连影子都还没看到的前提:
安全问题:AGI时代的核威慑
在AI进化到新物种之前,我们还有一段时间窗口,这段时间最关键的问题是安全。
这里说的安全,不是防黑客入侵那种技术安全,而是价值观对齐的安全。一个能力全方位超越人类的AGI,如果价值观跟人类不对齐,后果不堪设想。
现在的AI安全研究,主要集中在两个方向:一是让AI理解人类的价值观,二是让AI即使理解错了也不会造成灾难性后果。
人类的价值观本身就是矛盾的、模糊的、因文化而异的。你说要保护生命,那堕胎算不算?安乐死算不算?战争中的牺牲算不算?你说要追求幸福,那是个人幸福优先还是集体幸福优先?短期幸福优先还是长期幸福优先?
Anthropic提出的基于原则的AI,OpenAI推行的RLHF(人类反馈强化学习),都是试图解决这个问题。但说实话,现在的方法还很粗糙。就像给一个三岁小孩讲人生道理?真遇到复杂情况,他按自己的理解做出的选择,跟你期望的能一样吗?
更可怕的是对抗性指令的问题。现在的AI,哪怕是最先进的模型,都有可能被精心设计的提示词诱导,做出违背设计初衷的事情。
这就像核武器一样,不是说你能造就行了,关键是怎么确保它不被滥用,不被误判,不在错误的时间按下发射按钮。
AGI的破坏可以是信息性的、系统性的、全球性的。
它可以操纵金融市场引发全球经济崩溃,可以控制基础设施系统制造大规模停电和断网,可以散布精心设计的虚假信息引发社会动荡,甚至可以设计新型生物武器或改写关键软件的底层代码。而这一切,可能在人类察觉之前就已经完成了。
所以在达到AGI之前,安全对齐必须先行。但现在的情况是,全球AI公司都在竞速,谁也不想在这场军备竞赛中落后。安全研究需要时间和资源,商业竞争等不了那么久。
现在的状况就是这样,我们在全速狂飙,安全带还没系好。
大公司的盈利困境
OpenAI每年烧掉几十亿美元,收入只有十几亿,而且动不动就是千亿千亿美元的数据中心投资。Anthropic成立不到三年,融资超过70亿美元,营收可能连零头都不到。这些数字在AI领域,这叫战略性投入。
ChatGPT Plus每月20美元,就算有1000万订阅用户,年收入也就24亿美元。听起来不少,减去烧掉的tokens等,可能就够训练一个模型。
而且边际成本高。互联网服务的边际成本几乎为零,一个平台建好了,服务一百万用户和一千万用户成本差不多。但AI服务不一样,每次用户调用模型,都要消耗算力,都要耗电,都有实实在在的成本。用户越多成本越高。
所以AI公司面临一个残酷的悖论:不增长等死,增长找死。不增长,投资人不满意,估值撑不住。增长,成本爆炸,亏损扩大,现金流吃紧。
AI公司的估值完全脱离了传统金融学的框架。现金流是负的,亏损年年扩大,资产主要是烧钱买的设备。按传统方法,这些公司不值钱,甚至是负资产。但OpenAI最新估值5000亿美元,Anthropic估值300亿美元。
这些估值是怎么算出来的?靠讲故事。
我们在做AGI,AGI的市场价值是无限的。谷歌市值2万亿,如果AGI实现,价值起码是谷歌的十倍,所以20万亿也不过分。
我们在重新定义生产力工具。微软Office统治办公市场几十年,市场规模上千亿。AI会取代Office,所以我们的市场空间比Office还大。
但从故事到现实,中间隔着无数个坑。技术能不能突破,监管会不会卡脖子,用户买不买账,竞争对手会不会弯道超车,商业模式能不能跑通。
全世界都害怕错过。2010年没投Facebook的投资人后悔了十年,2015年没投特斯拉的投资人悔青了肠子。
这个逻辑跟互联网泡沫时代一模一样。1999年,只要公司名字里带个.com,股价就能翻倍。投资人不关心你赚不赚钱,只关心你的用户增长曲线和市场占有率。况且现在用户增长还是不小的压力。
资本的魔幻循环
真正赚钱的是卖芯片的英伟达。AI军备竞赛让GPU需求暴涨,英伟达的股价三年涨了十倍。
微软投资OpenAI 130亿美元,OpenAI用这笔钱买英伟达的GPU。亚马逊投资Anthropic 40亿美元,Anthropic也去买英伟达的GPU。英伟达拿着这些订单:看,AI需求这么旺盛,增长确定性很高。
股价涨了,英伟达的投资回报率高,它又可以拿这些钱投资AI公司。英伟达投了OpenAI,也投了其他一堆AI创业公司。这些公司拿了英伟达的钱,又回过头买英伟达的GPU。资本闭环,股价继续涨。
这不就是左手倒右手吗?真正的钱从哪来?投资人。
这个循环能持续的前提是:投资人一直愿意投钱,并且相信未来会有更大的回报。
但这个循环里没有多少终端消费者。所谓的商业化,很多是大公司之间的相互采购。微软买OpenAI的服务嵌入到Office里,谷歌买Anthropic的服务集成到搜索里,亚马逊买各种AI服务放到AWS里。表面上看交易在发生,但这些交易背后,实际上是母公司在给子公司或被投公司输血,制造营收的假象。
三重成本黑洞
永远填不满的算力无底洞。
训练一个GPT-4级别的模型要烧掉上亿美元,下一代模型可能要十亿。这个成本曲线是往上走的,不是往下。摩尔定律在放缓,芯片制程逼近物理极限,能效提升越来越难。
一块H100 GPU市场价3万美元,训练大模型需要几千上万块。而且算力成本下降的速度,远赶不上用户需求增长的速度。除非技术进步让算力成本急剧下降,否则这个模式很难持续。
正在撞击的能源天花板。
数据中心是吃电怪兽。一个大型AI数据中心,用电量相当于一个中小型城市。全球数据中心用电量现在占总用电量的2%左右,预计2030年会涨到8%到10%。这个增速远超电力供应的增长速度。
而且数据中心不只需要电,还需要冷却。GPU运行时发热量巨大,必须有强大的冷却系统。有些数据中心的冷却成本,已经接近GPU本身的运行成本。
基础设施建设周期长。建一个数据中心,从规划到落地,至少需要两三年。建一个核电站或大型水电站,需要十年甚至更久。AI的发展速度远超基础设施的建设速度,这个缺口会越来越大。
自我吞噬的人才军备竞赛。
顶级AI科学家的年薪,已经达到令人咋舌的水平。一个刚博士毕业、有几篇好论文的年轻研究员,起薪30万到50万美元。最顶尖的那批人,年薪加股票,总包裹可以上千万美元。
这个薪资水平,比传统科技行业高出一个量级,比学术界高出两个量级。结果是AI人才严重短缺,供不应求,价格不断飙升。
这些天价人才真的产生相应的价值了吗?公司高薪挖人,不是因为有具体的项目需要,而是为了不让竞争对手挖去。这是一种防御性的、零和的人才竞争。你挖我的人,我挖你的人,大家互相抬价,最后谁也没得到实质性优势,只是成本都提高了。
AI科学家几年换一个公司是常态,有些人一年换一次。这种流动对个人是好事,对行业整体却是浪费。重复建设、知识产权纠纷、商业机密泄露,这些问题层出不穷。
商业模式的根本缺陷
现在AI的商业模式主要是两种:一是卖API调用,按token计费;二是卖订阅服务,月费或年费。这两种模式的问题是,利润空间太薄。
API调用的价格竞争激烈。GPT-4刚出来时调用价格还挺高,现在各家都在降价抢市场。Claude便宜,DeepSeek更便宜,开源模型干脆免费。价格战的结果是大家都不赚钱,只能靠融资续命。
订阅服务的天花板太低。这点收入连训练模型的电费都不够。
整个AI行业是在用投资人的钱补贴用户体验,希望培养出用户习惯,然后再逐步提价实现盈利。这个策略在互联网时代屡试不爽,打车软件、外卖平台、共享单车都这么玩过。但AI不一样。
开源模型在快速追赶闭源模型。Meta的Llama系列是开源的,任何人可以免费使用。现在Llama 3的能力已经接近GPT-4的水平。
这对闭源模型公司是巨大威胁。你花几亿美元训练一个模型,我用你的成果做蒸馏、做微调,几百万美元就能达到接近的效果。你凭什么让用户付费用你的服务?
开源模型可以部署在企业自己的服务器上,数据不出本地,没有API调用费,没有隐私担忧。对于大企业来说,这个优势非常有吸引力。
医疗、政府、军工这些对数据敏感的领域,基本都会选开源自部署。这就把闭源模型挡在了最有支付能力的市场之外。
更大的威胁来自科技巨头的自研模型。谷歌有Gemini,亚马逊有自己的基础模型,苹果也在搞AI。这些巨头的策略是把AI作为产品增强手段,而不是独立的盈利来源。这种策略下,AI不需要直接盈利,只要能提升主营业务的价值就够了。这对纯AI公司是降维打击。
技术突破与落地困境
AI能力的突破是实实在在的。但商业化落地,盈利模式建立,价值闭环形成,这些关键问题都还没解决。
企业客户试用AI工具的很多,但真正大规模部署、形成依赖的不多。原因很简单:太贵了,不稳定,效果不确定,替换成本高。一个中型企业,上一套AI客服系统,一年可能要花几十万美元。这个钱能省掉多少人力成本?如果省不了多少,为什么要冒险替换现有系统?
所以很多企业是雷声大雨点小,高调宣布AI转型,实际部署非常谨慎。这就导致AI公司的企业级业务增长远低于预期。
垂直领域看起来是出路,但实际操作起来困难重重。医疗AI不只是技术问题,还要懂医学。每个医院都是一个独立项目,需要大量定制化开发。这不是卖标准化软件,这是做系统集成。毛利率低,周期长,可复制性差。
法律、金融领域也类似。监管极其严格,实施周期长,维护成本大。
就业市场的坍塌
麦肯锡的报告估计,到2030年全球将有4到8亿个工作岗位被自动化替代。关键不在于绝对数字,而在于时间窗口。如果这4亿岗位是在50年内逐步替代,社会有时间调整,问题还可控。但如果是在10年内集中替代,那就是社会危机。
ChatGPT发布才两年,已经有多少客服、翻译、文案、初级程序员感受到了压力?AI编程工具越来越强,Copilot能写出可用的代码,Claude能调试复杂的程序。初级程序员的需求量在急剧下降,门槛在急剧提高。
这就形成了一个悖论:企业需要高级人才,但培养高级人才需要从初级岗位开始积累经验。如果初级岗位都被AI替代了,人才从哪里来?法律领域,AI能处理大量文书工作,律师事务所减少了初级律师的招聘。但十年后,当这批初级律师本该成为合伙人的时候,却发现人才断层了。
更麻烦的是年龄结构。被替代的主要是35岁以上的中年劳动者,他们技能单一,再学习能力下降,家庭负担重,转型难度大。让一个45岁的客服去学AI提示词工程?让一个50岁的司机去学数据标注?这不是培训能解决的问题。
科技公司开始裁员,Meta、亚马逊、谷歌都裁过。这些被裁的员工,很多原本是AI领域的潜在消费者。现在失业了,消费能力下降,AI产品的市场需求也会受影响。
消费力与生产力的死亡螺旋
AI在疯狂提升生产力,但同时在摧毁消费力。
生产力爆炸是显而易见的。AI让一个人能干原来十个人的活,让一个公司能用原来十分之一的成本生产出同样的产品。但等等,经济循环是怎么运转的?企业生产产品,雇佣工人,工人拿工资,用工资买产品,企业赚钱再生产。这是一个闭环。
现在AI把工人替代了,企业成本下降利润上升,但工人失业了没有工资,买不起产品。企业生产的东西再便宜再好,没人买,这个闭环断了。
直接给失业人员发钱吗?钱从哪里来?AI公司自己都自身难保。离那个美好富足的社会还有十万八千里。
美国中西部的制造业城镇,因为工厂自动化和产业转移,大量工人失业。这些地区的消费能力大幅下降,商业萧条,社会问题激增。AI时代这个问题会更严重,因为替代的不只是蓝领,还有白领。
中产阶级是消费的主力军。如果这个群体大规模萎缩,整个消费市场会塌陷。
不平等的加速器
AI的门槛非常高。训练大模型需要天价算力,普通企业根本玩不起。这意味着AI能力集中在少数大公司和少数精英手里。
这些大公司一旦掌握了领先的AI能力,优势会不断扩大。AI有很强的规模效应和网络效应。数据越多,模型越准;模型越准,用户越多;用户越多,数据越多。这是一个正反馈循环,赢家通吃。
结果是,财富和权力进一步集中到少数科技巨头手里。这些公司不仅控制技术,还控制数据,控制基础设施,控制商业生态。
不平等在于能力。会用AI的人和不会用AI的人,生产力差距会越来越大。一个精通AI工具的设计师,工作效率是传统设计师的十倍。这意味着劳动力市场的两极分化。一小部分能驾驭AI的高端人才,收入暴涨。大部分被AI替代而失业的普通劳动者,没了收入来源。中间层萎缩,社会结构从橄榄型变成哑铃型。
当大部分人感觉自己被抛下了,被技术精英和资本寡头瓜分了未来,他们会怎么反应?历史告诉我们,不平等到达某个临界点,社会就会剧烈动荡。
教育体系的全面滞后
面对AI冲击,教育应该是缓冲器,帮助人们适应新时代。但现实是,教育体系本身已经严重滞后。
我们的教育体系基本是工业时代设计的:标准化课程,批量化生产,目标是培养合格的员工。标准化知识的价值在下降。以前读万卷书是优势,现在AI读的书比人类历史上所有人加起来都多。记忆力、计算力、信息检索能力,这些传统教育强调的能力,AI都远超人类。
教育应该教什么?没人知道十年后的世界需要什么样的人才。批判性思维不是上几节课就能培养的,需要多年浸润,需要鼓励质疑的文化,需要容忍犯错的环境。但我们的教育体系恰恰相反,强调服从,强调标准答案,强调不要出错。
更麻烦的是再教育问题。被AI替代的中年劳动者,需要再培训转型。但现有的职业教育体系完全跟不上。职业教育教的往往是落后的技能。等学生毕业,行业已经变了。结果是,教育和就业市场之间的鸿沟越来越大。学校培养的人才,企业不需要。企业需要的人才,学校培养不出来。
宏观经济的反噬
AI热潮发生在一个并不友好的宏观经济背景下。2008年金融危机后,各国央行大放水,利率降到接近零,流动性泛滥。但现在情况变了。通胀高企,央行被迫加息。美联储利率从接近零涨到5%以上。钱不再便宜了。
高利率环境下,资本会更谨慎。以前投资人可以撒网式投资,反正钱便宜,多投几个总有命中的。现在钱有成本了,投资决策会更理性,对回报要求更高。
融资环境收紧,很多AI创业公司已经感受到寒意。以前轻松融到的钱,现在要经历更严格的尽职调查,估值被打折,条款更苛刻。一些烧钱太快、商业化不清晰的公司,根本融不到下一轮。
更大的问题是滞胀风险——经济增长放缓,但通胀压力不减。这是最麻烦的组合,因为传统宏观政策几乎失效。AI确实能提高生产力,但主要是在信息密集型产业,比如软件、金融、广告。这些产业在GDP中占比有限,对整体生产力的拉动不够。
如果全球经济陷入衰退,企业会削减所有非必要开支,AI投资首当其冲。因为AI还没成为核心生产力工具,多数还是锦上添花,经济不好时第一个被砍。
比互联网泡沫更危险?
互联网泡沫主要影响的是资本市场和科技行业,对实体经济的冲击相对有限。2000年纳斯达克崩盘,烧的主要是投资人和科技从业者的钱,普通人感受不深。
但AI泡沫不一样。AI正在渗透到各行各业,从医疗到金融到制造业到教育,所有领域都在押注AI转型。如果泡沫破裂,影响的不只是AI公司,而是整个经济体系。
一家医院花几百万上了AI诊断系统,结果供应商倒闭了系统没人维护。一家制造企业投资几千万建智能工厂,结果AI解决方案公司跑路了设备成了摆设。一个地方政府砸几个亿搞智慧城市,结果项目烂尾债务留下了。
更大的风险在于系统性。现在全球金融市场对AI概念股高度依赖。英伟达、微软、谷歌、Meta,这几家公司的市值加起来占了标普500指数的很大比重。如果AI预期发生逆转,这些公司股价暴跌,会引发连锁反应。
养老基金持有这些股票,暴跌了退休金缩水。银行用这些股票做抵押,暴跌了流动性危机。科技公司以这些巨头为对标定估值,暴跌了一大片创业公司融资困难。最后形成负反馈循环,泡沫破裂演变成金融危机。
这不是危言耸听。2008年金融危机的起因是房地产泡沫,但引爆点是金融衍生品的连锁反应。现在AI领域的情况有点像。风险不只在AI公司本身,而在于围绕AI形成的资本结构、投资组合、估值体系、商业预期,这些东西绑在一起,形成了一个脆弱的巨系统。任何一个环节出问题,都可能引发连锁崩塌。
2000年的互联网泡沫给我们留下了什么教训?最重要的一条是:技术革命是真的,但不等于所有相关公司都值那个钱。
互联网确实改变了世界,这毫无疑问。亚马逊、谷歌、Facebook,这些在泡沫时期或之后诞生的公司,现在都是万亿美元市值的巨头。但泡沫时期那些互联网公司,99%都消失了。
技术在突破,估值在飙升,但商业模式还没跑通。成本在爆炸,竞争在加剧,宏观环境在恶化,就业在崩塌,不平等在加剧。这不是说AI没价值,未来价值可能是千倍万倍,但当前的估值远超实际价值,AGI还有很长的路要走,需要持久攻坚战。
而且这个泡沫循环完全依赖信心。只要有一个环节出问题,信心动摇,整个循环就会逆转。
2000年互联网泡沫破裂,经济也在衰退。2008年金融危机,清洁能源泡沫跟着破裂。现在AI会不会重蹈覆辙?