财经新闻网消息:
经过一年的解读,业界对于人工智能的态度日渐理性。 最终,商业模式的故事需要找到立足点。
一年了解AI全产业链
今年2月7日,在人气最盛的时候,百度正式宣布推出新一代大语言模型“文心一言”,从而拉开了“百模型大战”的序幕。
一时间,几乎所有互联网巨头都发布了自己的大机型。 例如,昆仑万维发布大模型后,迅速获得市场热捧,股价短时间内上涨300%以上。 一些规模较小的公司发布了基于行业的大型模型应用,其股价也顺势而上。
就在“百款之战”打得如火如荼的时候,投资者发现,虽然很多大型号还没有上线,但厂商的抢购已经让英伟达的显卡“脱销”。
作为生态系统最完善的算力芯片,英伟达的A800芯片价格上涨迅速。 一张卡从4万元、5万元涨到10万元甚至13万元、14万元,而且还可能没货了。
在意识到巨大的需求缺口后,市场果断将目光转向计算芯片、服务器等上游硬件。
产业链巨头纷纷发布新产品,抢占英伟达无法满足的市场。 例如,今年8月,华为与科大讯飞联合发布了科大讯飞Spark一体机,其FP16算力达到2.0,在单卡算力方面可与 A100抗衡。
事实上,国内算力基地已经悄然走到了前列。
10月13日,中国电信公布了“人工智能算力服务器(2023~2024年)集中采购项目”中标单位。 以G系列为代表的国产AI服务器中标金额约为28亿元,约占中标金额的33%。 %; 中标人数约为1,977人,占比约47%。
硬件的持续投入,使得算力中心的快速落地成为可能。
今年10月,工业和信息化部等六部门印发《计算基础设施高质量发展行动计划》。 根据规划,到2025年,算力规模将超过300(每秒百亿亿次浮点运算)。 能力),智能算力占比35%; 在应用赋能方面,围绕工业、金融、医疗、交通、能源、教育等重点领域打造了30多个应用标杆。
不少企业已经开始谋划,不少企业宣布中标算力中心项目,涉及金额从数亿到数十亿元不等。
端面落地材料成新看点
岁末将至,人工智能巨头们再次聚焦于向市场发出信号——寻找商业模式。
谷歌发布了“迄今为止最强大、最通用的模型”——多项任务性能超过 GPT-4; 谷歌的Pro成为第一款Nano兼容的手机。
英特尔正试图在另一个层面上引导人工智能的落地。 这家巨头宣布了一项雄心勃勃的计划:到2024年为全球PC制造商的230多个型号提供端侧AI功能,并在2025年交付1亿个客户端处理器。
此轮人工智能热潮的领跑者自然不会“坐以待毙”。 它不仅计划开发自己的AI芯片,还计划与苹果前首席设计师Jony Ive和日本软银集团首席执行官孙正义合作打造AI硬件产品。
可见,海外巨头已将目光投向了AI终端侧。
在家里也是如此。 今年8月,华为开始“试水”盘古大模型的端到端运营。 在大模型的支持下,鸿蒙4.0中的“小艺”可以根据用户图片生成图片,并自动生成电子邮件邀请、会议记录等功能。
荣耀Magic 6机型还将带来荣耀自研的70亿参数规模AI模型。 此外,OPPO、vivo、小米都在尝试将自己的大型AI模型植入到智能手机中,成为AI落地的突破口。
“过去,AI大模型主要运行在云端,终端设备需要连接互联网才能获得AI的加持。如果我们想让AI大模型技术更加普及和落地,并实现每个人能用AI,我们必须有满足上述要求的硬件和设备载体。” 一位国内主流智能手机厂商人士表示。
除了智能手机之外,PC、智能眼镜、智能音箱等终端也将成为人工智能的硬件入口。 其中,作为消费电子领域的两大主力,智能手机和PC在长时间的沉寂后,或将迎来期待已久的复苏。 据IDC预测,到2026年,中国市场近50%的终端设备处理器将应用AI技术。
AI在设备端的重塑也将为硬件迭代创造价值。 以智能手机为例,华泰证券研报分析称,大型AI模型对手机应用中BOM成本的影响主要包括:在SoC方面,AI引擎升级和NPU算力提升; 存储方面,手机RAM升级至24GB,相比目前主流的8GB,成本提升300%; 电源方面,电池/电源管理芯片升级,但灵活性比较小; 光学方面:AI推动屏下摄像头应用突破。
存储方面,推理场景下,百亿参数模型(FP16精度)不考虑模型运行时的临时变量,总共需要18.6GB内存。 一些厂商陆续推出了大内存配置的手机。 8月份,小米新发布的K60至尊版内存已提升至24GB,为AI应用的发展留下了足够的空间。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com