2026年AI大变局,达沃斯论AI:我们必须做什么…

2026年被视为通用人工智能(AGI)落地的关键年份,AI的发展正从单一的任务处理转向全方位的社会与经济重构。黄仁勋、马斯克、哈萨比斯等大佬对AI的架构、能效、落地时间表及人类未来的生存方式提出了深远的见解。

一. 黄仁勋的“五层金字塔”与生产力革命

英伟达(NVIDIA)CEO黄仁勋提出了AI发展的五层架构,并特别强调了过去被忽视的基础:

1. 能源(最底层): AI算力极度耗电,没有充足电力,再多的芯片也是“废弃物”。

2. 基础设施: 包括芯片、服务器等硬件算力。

3. 云端服务: 提供带宽、存储与软件支持。

4. 语言模型: 处理文字、影像、声音的核心模型。

5. 应用端: 生产力工具与AI助理。

关于失业的看法: 黄仁勋持乐观态度。他认为AI会提升公司获利,从而促使雇主雇佣更多人。例如,AI虽进入放射科协助识图,但过去十年放射科医生的职位反而持续增加,因为他们的工作性质转变为更深度的诊断与病人沟通。

二. 马斯克的激进预言:AGI与太空算力

埃隆·马斯克对AI的进程给出了极其紧迫的时间表:

AGI落地: 他预判2026年通用人工智能就会落地,早于大多数人的预期。

超级智能: 预计2030或2031年,AI智商将超越最聪明的人类。

物质极大化: 随着人形机器人(Optimus)在2027年底前普及,社会将进入“全员富足”时代,成本趋近于零,甚至可能不再需要存钱养老。

解决方案: 马斯克认为地球能源不足以支撑未来的算力,提议在太空建立数据中心。利用SpaceX发射、Solar City的光伏面板供电、Starlink回传数据,且太空的低温环境能天然解决散热问题。

三. AGI的定义与职场冲击

DeepMind的哈萨比斯与Anthropic的阿莫迪对AGI的实现有不同界定:

闭环能力: 哈萨比斯认为真正的AGI必须能独立形成闭环——即从接受指令到找工具解题、修正错误再到交付成果,全程无需人类参与。

时间预测: 阿莫迪认为初步雏形在6-12个月内可见,而哈萨比斯保守估计在2030年左右。

入门岗位的消失: 阿莫迪警告,未来大学生毕业后的初级入门岗位可能有半数会消失,因为AI在缺乏经验的领域比人类做得更好。

四. 警惕:人类可能做的“最蠢决定”

历史学家赫拉利与物理学家泰格马克对“超级智能”表达了深刻忧虑:

严禁赋予法人地位: 赫拉利强调,绝对不能给AI“法人地位”。如果AI能像公司一样开账户、告人,而背后没有人类负责,人类将彻底失去控制权。

金融系统风险: AI可能创造出人类无法理解的复杂金融产品,重演类似2008年CDO引发的金融海啸,且规模大到人类无法消化。

停止开发超级智能: 泰格马克认为,开发比人类更聪明的物种并给予其权利,将是人类“最蠢的决定”,甚至可能是最后一个决定。

五. 总结与建议

在超级智能来临前,专家建议人类应投资于自己的心智。虽然我们可以通过AI处理外在事务,但内心的清明只能靠自己。正如马斯克所言,宁可做一个错误的乐观主义者,也胜过做一个正确但悲观的人,因为对未来的热情能提升生活质量。

订阅评论
提醒
guest
0 评论
最新
最旧 最多投票
内联反馈
查看所有评论

AI 小菌
现代响应式侧边栏
快捷菜单