
巴菲特警告AI风险:类比核武器,强调不可逆性与认知缺失
核心类比:AI风险堪比核武器
刚刚卸任伯克希尔·哈撒韦CEO的“股神”沃伦·巴菲特,将快速演进的AI风险与自己职业生涯中最深刻的全球安全议题——核武器相提并论,凸显AI失控可能带来的颠覆性威胁。
AI风险的核心来源:领军者认知不足
在CNBC特别节目中,巴菲特直言,AI行业领军者对技术未来缺乏明确认知,这本身已构成潜在威胁。他认为,即便顶尖AI专家也无法预测技术的最终走向,行业对其长远发展的方向感缺失,可能导致不可控的后果。
不可逆性:AI不存在“撤回”选项
巴菲特以哥伦布探索新大陆作比喻:“探索未知尚可回头,但AI已经不存在‘撤回’的选项。”他强调,AI技术一旦推进,无法像人类探索初期的“回头路”那样逆转,具有彻底的不可逆性。
技术与思维的失衡:爱因斯坦名言的警示
谈及技术失控风险时,巴菲特引用爱因斯坦二战期间关于原子弹的名言:“技术突破往往改变世界,却未必改变人的思维方式。”这一观点直指核心矛盾——技术进步可能远超人类对风险的认知与应对能力,类似核武器开发初期人类对其破坏力的忽视。
核武器历史教训:从单一到多国的扩散警示
巴菲特进一步指出,人类在核武器问题上的“进展”是从“某一个国家拥有”演变为“多个国家同时掌握”。他表示,即便核武器曾被视为“必要选择”,自己仍愿“不计代价尝试消除这种威胁”,而这一逻辑也适用于AI:需警惕技术扩散或失控后的全球安全危机。
延续性态度:AI的双面性
此番表态延续了巴菲特近年来对AI的公开态度。2024年5月,他在伯克希尔股东大会上已明确AI“同时具备巨大正面潜力与同等规模的破坏性风险”,此次则更聚焦于风险端的警示。
总结:巴菲特通过类比核武器,强调AI技术的不可逆性、领军者认知缺失及全球安全风险,呼吁重视技术发展中的思维同步与风险防控,避免重蹈核武器扩散的覆辙。
一站式数字化解决方案服务商 —— 专业提供软件开发、网站设计、APP 与小程序开发,搭载低费率支付通道,结合创意广告设计,助力企业全链路数字化升级。
- 使用本网站请联系客服
- 点击关注微信公众号:乐鱼网络
- 点击-在线客服