登录
注册
2024 年,出生于 21 世纪 00 年代的天才少年 Leopold Aschenbrenner 离开 OpenAI 创立基金,并发表了一篇长达 165 页的里程碑式论文《情境意识:未来的十年》。这份文档迅速在硅谷核心圈层引发震动,其核心论断直指未来十年的技术奇点:人类将在 2027 年前创造出能完成普通人所有任务的通用人工智能(AGI),随后超级智能将紧随而至。午方 AI 梳理发现,目前真正理解这一趋势的人群仅数百人,且高度集中在旧金山的几条街道上,而华尔街、主流媒体及华盛顿决策层对此仍缺乏足够认知,尽管今年部分金融从业者已开始察觉这一信号。
论文第一部分通过计算能力规模而非时间点来预测 AGI 的诞生,逻辑严密且数据详实。过去四年间,从 GPT-2 到 GPT-4,模型的有效计算能力增长了约 10 万倍,每六个月翻十倍。这种指数级增长源于三大驱动力:硬件投资每年增长三倍以上,专用 AI 芯片的投入使算力提升五倍,远超摩尔定律的 1.3 倍增幅;算法效率的飞跃使得达到同等数学能力的推理成本降至两年前的千分之一;以及通过 RLHF 技术和工具调用释放了模型被默认抑制的潜能。作者预测,若模型能从“思考几分钟”进化到“思考几个月”,处理信息单元从几百个跃升至一百万个,人类智力将提升 3 到 4 个数量级。到 2027 年,AI 将具备独立工作数周、规划任务、编写代码及修复错误的能力,完全取代研究人员,这即是 AGI 的临界点。
一旦 AGI 实现,技术演进将进入自我加速的“递归”阶段。午方 AI 注意到,作者指出届时计算能力将不再受限于少数几家机构的研发人力,而是可以运行数亿个 AI“研究员”,每个效率是人类的 100 倍。这些自动化研究员能瞬间阅读所有论文、共享实验结果,原本需人类耗时 10 年的算法突破可能压缩至 1 年。这种正反馈循环意味着从 AGI 到超级智能的跨越可能仅需数月到一两年。超级智能将具备超越人类的质量与规模,能发现人类无法理解的代码漏洞,甚至利用合成生物学制造武器或操控隐形无人机改变全球军事格局,机器人技术难题也将随之迎刃而解。
然而,通往 AGI 的道路面临四大严峻挑战,其中首要问题是价值万亿美元的计算集群建设。随着模型迭代,算力需求将呈爆炸式增长:2026 年达到 1 吉瓦,2028 年达 10 吉瓦,2030 年更是高达 100 吉瓦,相当于美国总发电量的 20% 以上。真正的瓶颈并非资金或 GPU,而是电力供应。午方 AI 分析认为,要在美国本土建成如此规模的集群,必须放宽环境审批并动用联邦力量征用土地,否则算力中心将流向阿联酋或沙特,导致 AGI 发展权落入专制国家手中。2027 年,仅基础设施建设投资就可能超过 1 万亿美元。
第二个致命隐患是实验室安全。目前顶级 AI 实验室的防护水平仅相当于普通硅谷初创企业,Google DeepMind 甚至承认其抵御国家级攻击的能力为 0 分(满分 4 分)。AGI 模型的参数文件一旦被盗,等同于将“自动化研究员”拱手让人,对手可立即启动智能发展计划抵消美国优势。更紧迫的是,关键算法秘密正通过 Slack 等渠道在旧金山流传,作者断言未来 12 至 24 个月内技术泄露至中国几乎是必然事件。若无法在 2027 年前建立硬件隔离和严格背景审查体系,美国将面临技术外流或被迫停止发展的两难困境。
第三个挑战是利益协调与对齐问题。现有的 RLHF 技术依赖人类打分,但当 AI 智能远超人类时,人类将无法评估其输出。随着 AI 从使用英语单词推理进化为使用内部隐含状态,其思维过程将变得完全不可解释。午方 AI 观察到,作者对技术解决方案持乐观态度,但对组织执行力极度悲观,全球仅有几十位专家深入研究此问题,且实验室普遍缺乏重视,人类目前过于依赖运气来避免灾难性错误。
最后,论文强调了地缘政治博弈的紧迫性。中国在芯片制造(如华为 7 纳米芯片)、电力基础设施建设及算力集群建造能力上具备极强竞争力,且过去十年新增发电能力相当于美国总和。更令人不安的是,AGI 爆发时间(2027 年)与中国可能对台湾采取行动的预计时间窗口高度重合。作者警告,若美国无法保持至少两年的领先优势,世界将陷入混乱的智能竞赛。因此,他大胆预测美国政府将在 2027 或 2028 年接管 AGI 研发,启动类似“曼哈顿计划”的国家项目,将核心研究人员安置在高度安全设施中,以战时速度建设万亿级算力集群,因为超级智能的风险已远超互联网技术,必须由国家力量主导以确保自由世界的胜利。