人工智能会在几年内超越人类吗
美国知名企业家埃隆·马斯克近日宣称,到2025年或2026年,AI(人工智能)可能比最聪明的人类还要聪明。这个预测让不少人惊诧:具备与人类同等智能甚至超越人类智能的AGI(通用人工智能),已经近在眼前了吗?
前几年,大多数科学家们对AGI的预期还是几十年乃至上百年后才能实现。近一年半以来,美国人工智能公司OpenAI在大模型方面的巨大成功,让不少乐观的业内人士把AGI实现时间表缩减到5年至10年。马斯克的2年之期,很明显是一个更为激进的预测。从人工智能发展现状看,阻滞AGI实现的因素至少有一大瓶颈和两大风险。
一大瓶颈是能源瓶颈。风头正盛的人工智能大模型,目前还处于“大力出奇迹”阶段,依靠算力堆积实现智能涌现。2020年,最强的大模型算力需求达到每秒浮点运算次数10的23次方量级;到2024年,最强的大模型预训练算力需求已达到每秒10的26次方浮点运算量级,并继续按算力需求每3个月到4个月翻番的规律发展。算力密集意味着能量密集。据外媒报道,OpenAI的ChatGPT聊天机器人每天消耗的电力超过50万千瓦时,用于处理约2亿个用户请求,相当于美国一个普通家庭每天用电量的1.7万多倍。与这样巨大的能耗相比,一个成年人的大脑功率仅约20瓦,低能耗优点十分突出。从能耗看,人工智能要达到人类智能水平还有很大差距,以至于有些专家寄希望于未来可控核聚变技术突破带来的“能源自由”,也有些专家寄希望于芯片和算法的突飞猛进,这二者的突破显然都是短期内难以做到的。
两大风险是商业风险和安全风险。
从商业风险看,对人工智能大模型的投资面临着“赔本赚吆喝”的质疑,增速难以持续,这有可能会影响人工智能的迭代速度。比如,一家美国公司的大模型产品向用户收取10美元月费或100美元年费,但因为服务成本高,需要每个月为每个用户“倒贴”20美元。研究机构CB Insights发布的《2023年人工智能(AI)行业现状报告》显示,2023年,全球AI初创公司融资总额约为425亿美元,比2022年的473亿美元下降10%。大模型创业公司估值高、缺乏明确商业化路径,已经劝退了不少风险投资者。当前,虽然大量资金仍在涌向大模型,但烧钱如流水的“炼大模型”成本,也让大模型的商业变现需求愈加急切。
从安全风险看,当前人工智能技术快速发展,在给世界带来巨大机遇的同时,也带来了难以预知的风险和复杂的挑战。要确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术,显然不是让人工智能不受约束地发展越快越好,而是需要坚持“科技向善”的伦理先行,建立并完善人工智能伦理准则、规范及问责机制。人工智能治理关乎全人类命运,是世界各国面临的共同课题,因此人工智能规则制定也不能由少数发达国家说了算,而是要推动构建公平、公正的人工智能国际治理体系。
人工智能或许终有一天将超过人类,无论那一天是远还是近,人类都要做好迎接挑战的准备。