财经新闻网消息:
12月7日,谷歌发布了新型号1.0系列,拥有三种尺寸(Ultra、Pro和Nano),据称是能够真正挑战GPT-4的型号。 谷歌首席执行官桑达尔·皮查伊 ( ) 表示:“这是我们迄今为止最强大、最通用的模型,在许多基准测试中均处于领先地位。”
为了展示其强大的多模态能力,谷歌制作了仅由视觉和声音驱动的视频演示。 席卷了整个网络,震惊了很多人。 在部分评价指标上,它等于甚至超越了多模态模型GPT-4V。 。 然而,这次演示被指责是假的,谷歌的回应是“所有用户提示和输出都是真实的,并且为了简洁而被缩短”。
尽管如此,研究机构Omdia人工智能首席分析师苏连杰对第一财经记者表示:“谷歌是第一家将大模型和应用完美结合的公司,这具有划时代的意义。像百度一样,谷歌对于腾讯、Meta等拥有大型消费业务的公司来说,首要目标应该是考虑如何利用多模态来丰富人机交互。”
“随着谷歌模型的发布,AI进入了多模态时代。” 这是外界对谷歌最近发布的大型模型(中文名“双子座”)的观察。 苏连杰同意这个观点。
多式联运大型车型已成为行业公认的发展趋势之一。 “这是一个自然趋势。在文本处理之后,您需要具有处理其他模式的能力,例如图像和声音。” AI算法专家、连续创业者黄松表示,谷歌的推出对于大型多模态模型的发展具有重大意义。 弘扬意义。 中信证券研报指出,短期来看,将进一步激发市场对多式联运模式的预期。 对于行业来说,多模态也将带动算力需求的增加。
原生多模态有多强?
目前业界普遍认为,谷歌是一个真正能够与GPT-4正面竞争的模式,哪怕是吹牛。
据谷歌介绍,Ultra 在 30 项大模型能力测试中超越了此前最强大模型 GPT-4,在 MMLU(大规模多任务语言)中测试了数学、历史、物理、和法律。 理解力)测试分数达到90%,成为第一个超越人类专家的模型。 此外,Ultra在推理、数学和编码等判断大型模型真实能力的多项测试中几乎领先于GPT-4。
需要注意的是,Ultra要到2024年才会向公众开放,其真实效果还有待验证。 皮查伊解释说,花更多时间是为了进行严格的安全测试并发现其真正的能力。 事实上,在训练GPT-4之后,我花了半年的时间做了类似的事情。
Pro 将成为 聊天机器人 Bard 背后的模型,取代原来的 PaLM 2 模型。 经过测试,有开发者发现效果比原来要好,但与GPT-4还是有很大差距,大致相当于GPT-3.5的水平。
Nano将安装在谷歌Pixel 8 Pro手机上,是一款定位于端侧的机型。 据悉,开发者已经可以使用Nano在Pixel 8 Pro上开发应用程序,用户也可以用它来总结录音分钟等。
不管谷歌如何自我宣传,科技界的大佬们也对谷歌的模式赞不绝口。 例如,Meta 人工智能框架的联合创始人表示:“()似乎能够在基准测试中击败 GPT-4。谷歌有客户基础,不需要担心模型采用。而且谷歌将使用 TPU推断,因此它不必像 Pay 那样获得 70% 的利润(直到他们的芯片准备就绪并投入生产)。”
当谈论“ 和 GPT-4 谁更强?”时 360集团创始人兼董事长周鸿祎表示:“谷歌的商业模式依赖于搜索和广告。建立一个大模型相当于左手和右手打架,所以不全力以赴。这就是它”给了他们表现的机会,现在谷歌想通了,主动改变,比被打死要好。”
“从长远来看,谷歌追赶GPT-4是绰绰有余的。毕竟它是一家搜索公司,有数据优势,积累了大量知识。搜索和大模型的融合可以“让大模型更加实时,知识更加全面、全面。如果准确的话,搜索本身就会变得更加智能。”周鸿祎说。
原生多模态是 的主要特征。 相比之下,文本、图像和语音模型分别为GPT-3.5/4、DALL-E和DALL-E。 直到三个月前低调发布的GPT-4V,它才可以做多模态任务。
“谷歌模式的核心优势在于其原生的多模态特性。” 黄松指出,多模态大车型已成为大车型发展的明显趋势之一,而谷歌的到来将刺激国内企业加快研发。
业内人士普遍认为,多模态是生成AI的下一个重点方向,百花齐放的应用场景需要持续探索。 苏连杰还表示:“目前主流的人工智能应用主要基于文本和语音,包括最流行的应用也使用语言进行交互。 有大量面向消费者的应用程序,例如百度、谷歌、腾讯、Meta。 商业企业的首要目标应该是考虑如何利用多模态来丰富人机交互。”
东方证券研报认为,现阶段大语言模型的竞争已经非常激烈。 从技术突破的角度来看,下一阶段的重点一定是多模态技术。 只有真正能够处理和应用多模态AI能力的人,才能真正突破物理世界与数字世界的壁垒,用最基本的感知世界的能力直接生成操作,实现与物体最自然的交互。物理世界。
对算力的需求将进一步增加
“这是一项非常前沿的技术,就连谷歌展示的能力也是经过精心调校的,并不是那么自然。” 苏连杰指出,多模态的意义在于为AI应用带来更多可能性。 自然是通用人工智能(AGI)发展的关键。
在技术文件和公开声明中,谷歌高管多次强调目前只是1.0版本,明年将会发布更先进的大型模型。 这表明“没有先发布巴德”的谷歌正在从新一波AI浪潮中的落后中恢复过来。
今年3月发布GPT-4后,谷歌将其两个人工智能部门与Brain合并,并请其创始人Demis领导新部门。 其主要使命是引领多模态大型模型的开发。
与大型语言模型相比,多模态大型模型消耗的算力呈指数级增长。 国泰君安研究报告认为,目前大型多模态模型仍在迭代,训练阶段的算力将持续增长。 据计算,相同训练时间下,GPT-4对算力的需求比GPT-3增加了445倍。 据谷歌内部资料显示,参数有数万亿个,用于训练的算力达到GPT-4的5倍。
不过,与其他依赖硬件和生态系统的大型模型不同,训练所需的计算能力是基于谷歌自研的TPU V4和V5e硬件。 在推出新模型的同时,谷歌宣布推出Cloud TPU V5p,这是迄今为止最强大、最高效、可扩展的TPU系统,将用于开发更高级别的AI大型模型。
“对于人工智能基础设施来说,系统能力比微架构更重要。” 芯片研究所首席分析师迪伦·帕特尔表示,谷歌擅长将数千个AI芯片连接在一起,形成一个强大的计算平台。
此外,谷歌还拥有围绕TPU的软硬件集成能力、大规模模型基础技术开发等基础优势。 通过其高水平的软硬件集成能力,创建可以取代的解决方案并不困难。 谷歌云高管阿明·瓦赫达(Amin)表示:“在TPU V5p的帮助下,他们可以更经济高效地利用人工智能。” 据悉,谷歌等客户已经在使用谷歌云的TPU V5p超级计算机来训练大型模型。 。
事实上,英伟达GPU作为2023年需求量最大的AI硬件,已经被各大科技巨头瓜分。 根据 Omdia 最近发布的半导体研究报告,微软和 Meta 名列榜首,均从 采购了 15 万块 H100 GPU。
从第三位开始,购买数量开始断崖式下降。 谷歌、亚马逊和甲骨文等公司各抢占了 50,000 个 GPU。 其中,谷歌通过自研的张量处理单元弥补了部分芯片需求。 国内科技巨头也是 GPU的大客户。 例如,腾讯采购了5万块H800,百度和阿里巴巴分别采购了3万块和2.5万块GPU。
Omdia的报告还显示,今年从购买H100(或H800)最多的12家客户中,有4家公司来自中国(腾讯、百度、阿里巴巴和字节跳动)。
另一方面,英伟达也动作频频。 据Omdia统计,被称为“计算黄牛”的公司已经获得了4万块GPU,仅比谷歌少1万块。 据Wall 报道,英伟达看中了云服务领域,并与谷歌联手支持该公司。
即使在H100供不应求的情况下,也配置了大量新卡并直接参与投资。 今年4月,英伟达成为4.21亿美元B轮融资的主要参与者,将估值提升至20亿美元。
国泰君安研究报告认为,培训成本持续居高不下,算力租赁业务模式可行。 短期继续看好算力及算力租赁赛道。 “AI算力预计将超越普通算力服务市场,格局将在2023年碎片化。AI算力租赁市场规模预计将超过普通算力服务市场,规模为数千亿”。 东吴证券也指出。
庞大的算力租赁市场吸引了众多玩家。 数据显示,近十年来,我国算力基础设施相关企业呈现逐年快速增长的态势。 2020年、2021年和2022年分别新增企业47.85万家、76.97万家和80.14万家,同比增长52.62%、60.85%和4.11%。 天眼查数据显示,截至目前,我国今年算力基础设施相关企业注册数量已达86.66万家,已超过去年的注册数量。 其中,今年前10个月新增80.27万户,同比增长20.48%。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com