新华社北京4月25日电 题:国产AI大模型加速“上车”
新华社记者熊争艳、王辰阳
上海白领刘先生,坐上他的汽车主驾,向右扭头说:“打开那窗户。”话音刚落,副驾驶的车窗自动开了。
这辆车搭载了基于国产AI大模型的智能系统,就像有了人的大脑和神经网络,通过学习提升语音、视觉等多模态感知能力,在座舱里提供更人性化的交互,智能驾驶方面计算更精准,越来越像“老司机”开车。
当国产AI大模型开始加速“上车”,人工智能正以更加触手可及的方式走进现实生活。
会思考的多功能助手
“汽车是一个终端,承载大量先进技术,先是电动化,现在是智能化,以后还要和整个社会交通体系联起来。”哪吒汽车创始人方运舟说。
“有一段时间,车的智能化体现为一个个App,你问它答。现在我们的车搭载360智脑大模型,开始会思考了,与人交互更自然,识别车内外的人与物更准确,增强自动驾驶系统的效率和安全。这是初步探索,以后是强大的多功能助手。”学习并研究汽车技术30年的方运舟说。
“车会思考”怎么体现?
方运舟举例,以前司机要对语音助手提出明确指令,如“打开空调”。AI大模型接入车内语音助手后,司机只需要说:“我有点冷”。大模型会像人一样考虑如何满足司机的需求,执行多个动作,如关上车窗、把空调调到司机习惯的温度、风力调至常用的档位等。
“车会思考”背后是什么?
中科院院士姚期智表示,大模型在技术上可分为通用、行业、场景三类。大模型的通用智能必须细化到各个行业,给它投喂行业中的专业数据,通过训练形成场景化、定制化、个性化,产生专有的模型,才能给各垂直领域带来AI革命,关键是算力、数据和模型的匹配。
赛迪智库未来产业研究中心人工智能研究室主任钟新龙说,以前的人工智能是规则驱动,大模型则是数据驱动,数据决定模型的质量,影响泛化能力。“泛化就是学习并理解数据中隐含的规律,进而能够对未曾见过的数据给出恰当的输出,就像举一反三、学以致用。”
国家网信办4月发布的公告显示,万博体育下载已有117个大模型完成生成式人工智能服务备案。
记者梳理发现,目前“上车”的大模型,既有华为的盘古、百度的文心一言、科大讯飞的星火、360的智脑等科技企业的通用大模型,也有比亚迪的璇玑、小鹏的灵犀等车企自研的行业大模型。从终端看,已有超过10个品牌的汽车搭载大模型。
云端和车端协同工作
大模型赋能汽车是不断深入的过程,目前集中体现在智能座舱和智能驾驶上。
极越汽车座舱里,有块35.6英寸的一体屏幕。司机刘先生说,因为文心一言大模型的支持,屏幕显示的各种应用“可见即可说,可说即可做”。记者看到这样的对话场景:
司机:“Simo,我还有多久能到家?”
大模型:“1小时。”
司机:“在我到家前30分钟,打开家里的空调、拉上窗帘。”
大模型:“好的。”
司机不需要操作车里或手机上任何按键,通过Simo智能语音系统控制车内一切,还可通过屏幕上的小度App,远程控制家中电器。即使出现多人指令、声音交织、连续对话等情况,大模型也可理解每人不同的需求,满足不同的操作指令。极越首席执行官夏一平表示,极越车主目前对智能语音系统的使用率达98%,平均每人每天用60多次。
“以前的语音识别需要在云端解析数据,再下载到车端,现在全部的语音识别都是离线,这样反应快,而且哪怕没网络,也不影响开车。”夏一平说。
这得益于大模型在云端和车端的协同工作。钟新龙说,云端大模型的参数规模大、算力强,完成大量数据标注、数据融合等任务,降低成本和错误率;车端大模型的参数量小一些,无需联网也有算力,节省车端计算的推理时间,即使云与车端通讯有时延,也能确保安全。
“我们已把大模型应用到整车智能,垂直整合所有场景应用。”比亚迪集团董事长王传福表示,智能化架构有一个“中央大脑”,车端AI和云端AI,车联网、5G网、卫星网,及传感链、控制链、数据链、机械链,实时捕捉内外部环境的变化,在毫秒间将信息汇总反馈到“大脑”思考决策,调节车辆“身体”状态,提升驾乘安全性和舒适性。
学习能力迭代加速
展望大模型“上车”的发展前景,百度创始人李彦宏表示,随着技术的进步,汽车机器人将实现每天开“新版本”的体验,就如同购买新车一样,给用户带来持续的惊喜。
自动驾驶的迭代速度将加快。专家普遍认为,大模型可重构自动驾驶技术架构、合成模拟场景数据、预测安全风险,加快自动驾驶技术开发和应用落地。
在大模型出现前,自动驾驶是靠任务驱动,即程序员依据特定的场景,编写解决方案的代码,当车辆在行驶中感知到相应情况,便按照之前设定的方式处理。
“有了大模型后,我们发现有巨大的机会让原来特别多的泛化代码变成简单的端到端的模型,使感知、行为、控制在很多领域比我们想象的聪明很多,比如读懂‘前方ETC即将维修,请换道’等标识。”小鹏汽车创始人何小鹏说,以前小鹏智驾系统每一季度更新一次,现在平均每天有3.87个版本快速迭代。
未来,基于数据驱动的大模型端到端自动驾驶,可通过单个神经网络完成所有模块任务。中国工程院院士张亚勤表示,通过视频大模型,可根据环境、交通标志要素,结合车辆的控制、转向等驾驶行为生成大量可控视频,用于端到端自动驾驶的训练、测试,解决自动驾驶长尾场景数据积累问题。
大模型可整合座舱分散功能,提供类人理解能力的人机交互体验。商汤科技首席科学家王晓刚认为,大模型“上车”后能将座舱各单点AI功能组合起来,自动调用座舱软硬件资源,多模态大模型能够实现人与车的多感官交互,显著提升交互顺畅性、自然性。
“大模型‘上车’,现在带来了从0到1的变化,未来会实现从1到100等更大变化,人会把驾驶交给车,在智能空间处理其他事。”方运舟说。
夏一平打比方说,智能汽车现在理解用户的能力也许还是中学生,但大模型让车有了每天学习的能力,很快会成为大学生、博士;现在自动驾驶的能力还是新手菜鸟,以后会变成老司机。
大模型在汽车行业的深入应用也面临挑战。张亚勤指出,大模型在汽车行业的应用对数据资源的流动与共享提出更高要求。王晓刚认为,大模型训练与应用对AI芯片等算力基础设施要求不断提升。
大模型“上车”的成长之旅才刚刚开始。
作为汽车、电子信息、通信等领域跨界融合的产物,智能网联汽车已成为全球技术革命和产业变革的前沿阵地,国产汽车有望借助大模型,巩固和扩大在智能网联领域的优势,在新一轮产业革命中走在前列。