AI“教父”杰弗里·辛顿称“杀人机器人”或可避免士兵伤亡但会引发更多战争,并助推军工复合体发展

新闻要点
AI“教父”杰弗里·辛顿警告称,自主武器系统可能通过消除通常能阻止军事冲突的人员伤亡,从而使战争更有可能发生。 辛顿指出,如果富裕国家在军事行动中部署致命自主武器,其公民就不会再有裹尸袋运回,取而代之的是被摧毁的机器人,这将为富裕国家在与贫穷国家的冲突中带来战略优势。 他进一步表示,军工承包商将从昂贵的自主武器系统的替换需求中大幅获利,从而助推军工复合体的发展。洛克希德·马丁等主要防务公司正持续开发先进军事技术。辛顿还引用乌克兰冲突为例,说明AI已变革战争,例如500美元的无人机可摧毁数百万美元的坦克。 辛顿对美国、俄罗斯、中国等军火销售国因经济利益而抵制自主武器监管表示担忧。他指出,像Palantir Technologies这样的公司已将AI平台部署到军事应用中。
背景介绍
杰弗里·辛顿是著名的计算机科学家,因其在深度学习领域的开创性贡献而被誉为“AI教父”,并于2024年10月获得了诺贝尔奖。他于2023年从Alphabet(谷歌的母公司)离职,以便能够更自由地就AI的潜在危险发表言论,这凸显了他对这项技术未来发展的深切担忧。 当前,全球主要大国和防务公司正在积极开发和部署人工智能驱动的军事技术,包括自主武器系统,这引发了关于伦理、监管和地缘政治影响的广泛讨论。军工复合体,一个由军队、政府和国防工业组成的网络,历来在推动军事技术发展中扮演关键角色。
深度 AI 洞察
致命自主武器(LAWs)的扩散对国防承包商的长期投资意味着什么? - LAWs的普及预示着国防开支的结构性转变,从传统人力密集型系统转向高科技、高资本密集型设备,这可能为领先的国防承包商带来显著的收入增长。 - 这些系统的开发、部署和替换成本极高,将为洛克希德·马丁(Lockheed Martin)、诺斯罗普·格鲁曼(Northrop Grumman)等老牌公司以及帕兰提尔科技(Palantir Technologies)等AI集成商提供持续的盈利机会。 - 此外,这些技术通常需要持续的软件更新、维护和升级,形成高利润的服务合同,确保了国防企业在多年内的营收可见性和增长潜力。 - 然而,投资者也需关注日益增长的伦理和监管压力,这可能导致国际条约的签订,从而限制某些类型LAWs的销售或使用,进而影响市场规模。 正如辛顿所言,战争中人类伤亡的减少将如何改变地缘政治稳定性及投资风险溢价? - 消除或显著减少士兵伤亡可能降低国家发起军事冲突的政治门槛,尤其对于拥有先进AI军事技术的富裕国家而言,这可能导致全球范围内的冲突频率增加。 - 这种转变将加大新兴市场和资源丰富地区的地缘政治不确定性,这些地区可能更容易成为军事干预的目标,从而增加这些市场的投资风险溢价。 - 随之而来的军备竞赛将刺激全球国防预算持续增长,但也会加剧大国间的紧张关系。市场可能开始对那些在LAWs技术上具有领先优势的国家,或其盟友,给予更高的战略稳定性和投资偏好。 - 此外,对网络安全和反AI武器的需求将激增,创造新的投资领域,同时,传统军事硬件制造商面临被AI驱动的低成本解决方案颠覆的风险。 除了国防领域,这种趋势对AI行业及其相关技术有什么更广泛的影响? - 军事应用对AI能力的需求将加速通用AI技术(如计算机视觉、自然语言处理、自主决策)的研发投入和技术突破,这些进步最终可能渗透到民用领域,推动AI整体创新。 - "军用级"AI的出现将进一步模糊军用与民用技术的界限,导致更多"双重用途"技术的出现。这为同时服务于国防和商业市场的公司带来了机遇,但也带来了复杂的伦理和监管挑战。 - 围绕AI伦理、透明度和可解释性的全球辩论将愈发激烈,可能促使更严格的AI治理框架和标准出台,影响AI公司的研发方向和商业化策略。投资者需关注那些能够平衡创新与负责任AI开发的公司。 - 此外,对用于AI训练和运行的先进计算硬件(如GPU、ASIC)的需求将大幅增长,利好英伟达(NVIDIA)等芯片制造商以及高性能计算基础设施提供商。