一代股神巴菲特警告 AI 技术存在失控风险:堪比“核武器”

fmt

巴菲特警告AI风险:类比核武器,强调不可逆性与认知缺失

核心类比:AI风险堪比核武器

刚刚卸任伯克希尔·哈撒韦CEO的“股神”沃伦·巴菲特,将快速演进的AI风险与自己职业生涯中最深刻的全球安全议题——核武器相提并论,凸显AI失控可能带来的颠覆性威胁。

AI风险的核心来源:领军者认知不足

在CNBC特别节目中,巴菲特直言,AI行业领军者对技术未来缺乏明确认知,这本身已构成潜在威胁。他认为,即便顶尖AI专家也无法预测技术的最终走向,行业对其长远发展的方向感缺失,可能导致不可控的后果。

不可逆性:AI不存在“撤回”选项

巴菲特以哥伦布探索新大陆作比喻:“探索未知尚可回头,但AI已经不存在‘撤回’的选项。”他强调,AI技术一旦推进,无法像人类探索初期的“回头路”那样逆转,具有彻底的不可逆性。

技术与思维的失衡:爱因斯坦名言的警示

谈及技术失控风险时,巴菲特引用爱因斯坦二战期间关于原子弹的名言:“技术突破往往改变世界,却未必改变人的思维方式。”这一观点直指核心矛盾——技术进步可能远超人类对风险的认知与应对能力,类似核武器开发初期人类对其破坏力的忽视。

核武器历史教训:从单一到多国的扩散警示

巴菲特进一步指出,人类在核武器问题上的“进展”是从“某一个国家拥有”演变为“多个国家同时掌握”。他表示,即便核武器曾被视为“必要选择”,自己仍愿“不计代价尝试消除这种威胁”,而这一逻辑也适用于AI:需警惕技术扩散或失控后的全球安全危机。

延续性态度:AI的双面性

此番表态延续了巴菲特近年来对AI的公开态度。2024年5月,他在伯克希尔股东大会上已明确AI“同时具备巨大正面潜力与同等规模的破坏性风险”,此次则更聚焦于风险端的警示。

总结:巴菲特通过类比核武器,强调AI技术的不可逆性、领军者认知缺失及全球安全风险,呼吁重视技术发展中的思维同步与风险防控,避免重蹈核武器扩散的覆辙。 fmt 一站式数字化解决方案服务商 —— 专业提供软件开发、网站设计、APP 与小程序开发,搭载低费率支付通道,结合创意广告设计,助力企业全链路数字化升级。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部