财经新闻网消息:
我们离AGI还有多远?
大约20万年前,智人开始在地球上直立行走,同时,他们也开始在思想和知识的领域里遨游。
人类历史上的一系列发现和发明塑造了人类历史。 其中一些不仅影响我们的语言和思维,还可能影响我们的生物构成。
例如,火的发现使原始人能够烹饪食物。 煮熟的食物可以为大脑提供更多的能量,从而促进人类智力的发展。
从车轮的发明到蒸汽机的创造,人类迎来了工业革命。 电力进一步为我们今天的技术发展铺平了道路,印刷术加速了新思想和文化的广泛传播,促进了人类创新的发展。
然而,进步不仅来自新物理维度的发现,还来自新思想。
西方世界的历史是从罗马帝国衰落到中世纪,经历了文艺复兴和启蒙运动的重生。
但随着人类知识的增长,人类开始意识到自己的渺小。
苏格拉底之后两千多年,人类开始“知道自己一无所知”,我们的地球不再被视为宇宙的中心。 宇宙本身在膨胀,而我们只是其中的一粒尘埃。
改变对现实的看法
但人类对世界的看法最大的变化发生在20世纪。
1931年,库尔特·哥德尔发表了不完备性定理。
仅仅四年后,为了延续“完整性”的主题,爱因斯坦和罗森发表了一篇题为“Can - of Be?”的论文。 (量子力学对物理现实的描述是否完整?)
随后,尼尔斯·玻尔反驳了这篇论文,证明了量子物理的有效性。
哥德尔定理表明,即使数学也无法最终证明一切——人类总会有无法证明的事实——而量子理论表明,我们的世界缺乏确定性,使我们无法预测某些事件,例如电子的速度和速度。 地点。
尽管爱因斯坦有句名言“上帝不会与宇宙玩骰子”,但从本质上讲,当涉及到简单地预测或理解物理学中的事物时,人类的局限性就得到了充分的体现。
无论人类如何努力设计一个由人类制定的规则运行的数学宇宙,这样一个抽象的宇宙总是不完整的,其中隐藏着无法证明、无法否认的客观公理。
除了数学的抽象表述之外,人类世界还通过描述现实的哲学来表达。
但人类发现自己无法描述、完全阐明、理解甚至定义这些表征。
20世纪初,“真”的概念尚不明确,“艺术”、“美”、“生活”等概念在定义层面缺乏基本共识。
对于许多其他重要概念也是如此,“智慧”和“意识”也无法由人类自己来明确定义。
智能定义
为了填补智能定义上的空白,2007年,莱格和哈特在《机器智能》一书中提出了机器智能的定义:“智能衡量一个智能体(Agent)在不断变化的环境中实现目标的能力”。
同样,在《与》一书中,他认为解决问题的能力不仅仅是智力的一个方面或特征,而是智力的本质。
这两种说法在语言描述上相似,都认为“实现一个目标”可以与“解决一个问题”联系起来。
在《论:An with 52》一书中,几位研究者从更广阔的角度总结了对智力的定义:
“智力是一种非常普遍的心理能力,包括推理、计划、解决问题、抽象思维、对复杂想法的理解、快速学习和从经验中学习。它不仅仅是书本知识、狭隘的学术技能或应试技能。而是,它反映了一种更广泛、更深入的了解周围环境的能力——“捕捉”、“理解”事物或“弄清楚”要做什么的能力”。
这个定义使智力的构建超越了单纯的“解决问题的技能”,并引入了两个关键维度:从经验中学习的能力和理解周围环境的能力。
换句话说,智力不应该被视为一种为一般问题找到解决方案的抽象能力,而应被视为一种具体能力,可以将我们从以前的经验中学到的知识应用到我们的环境能力中,以应对可能出现的不同情况。
这强调了智力与学习之间的内在联系。
在《我们如何学习》一书中,学习被定义为“学习是形成世界模型的过程”,这意味着智力也是一种需要理解周围环境并创建内部模型来描述环境的能力。
因此,智能还需要创造世界模型的能力,尽管不仅仅是这个能力。
现在的机器有多智能?
在讨论通用人工智能(AGI)与狭义人工智能(AI)时,我们经常强调它们之间的区别。
狭义人工智能(或弱人工智能)非常普遍且成功,常常在特定任务上超越人类。
比如这个众所周知的例子,2016年狭义人工智能在围棋比赛中以4比1的大比分击败了世界冠军李世石,就是一个很好的例子。
然而,2023年,业余棋手将在围棋场上使用人工智能无法应对的战术为人类赢得比赛,这表明狭隘的人工智能在某些情况下确实存在局限性。
它缺乏人类识别异常策略并做出相应调整的能力。
而且,在最基本的层面上,即使是新手数据科学家也明白,人工智能所依赖的每一个机器学习模型都需要在偏差(bias)和方差()之间取得平衡。
这意味着从数据中学习、理解和概括解决方案,而不仅仅是记忆。
狭义人工智能利用计算机的计算能力和内存容量,基于大量观察数据相对轻松地生成复杂模型。
然而,一旦条件发生轻微变化,这些模型往往无法推广。
这就好像我们根据观测提出了引力理论来描述地球,却发现月球上的物体要轻得多。
如果我们根据重力理论知识使用变量而不是数字,我们就可以理解如何使用正确的值来快速预测每个行星或卫星的重力大小。
但如果我们只使用没有变量的数值方程,我们将无法将这些方程正确地推广到其他行星而不重写它们。
换句话说,人工智能可能无法真正“学习”,而只能提炼信息或经验。 AI并不是通过形成一个全面的世界模型来理解,而只是通过创建一个概括来表达。
我们真的达到了AGI吗?
AGI现在一般理解为指:能够在多个认知领域达到人类或更高水平的理解和推理的人工智能系统,即强人工智能。
而我们目前针对特定任务的人工智能还只是弱人工智能,比如围棋。
AGI代表了具有人类水平智能、涵盖抽象思维领域各个领域的人工智能系统。
这意味着我们对AGI需要的是一个与经验一致、能够做出准确预测的世界模型。
正如Lea在《AGI安全文献评论》中指出的那样,AGI还没有到来。
对于“我们离真正的AGI还有多远?”这个问题,不同的预测差异很大。
但与大多数人工智能研究者和权威机构的观点一致,即人类距离真正的通用人工智能至少还需要几年的时间。
GPT-4发布后,面对目前最强大的人工智能,很多人将GPT-4视为AGI的火花。
4月13日,微软的合作伙伴微软发布了一篇论文《of: Early with GPT-4》(Spark of : Early with GPT-4)。
论文地址:
其中提到:
“GPT-4不仅掌握语言,还能解决涵盖数学、编码、视觉、医学、法律、心理学等领域的前沿任务,无需任何特殊提示。
并且在上述所有任务中,GPT-4的性能水平几乎与人类水平相当。 基于 GPT-4 功能的广度和深度,我们相信它可以合理地被视为通用人工智能的接近但不完整的版本。 ”
但正如卡内基梅隆大学教授萨普评论的那样,“AGI的火花”只是一些大公司将研究论文作为公共关系的一个例子。
另一方面,研究人员和机器企业家指出了一个误解:“在评估此类系统的功能时,我们经常将性能与能力等同起来。”
错误地将表现与能力等同起来意味着 GPT-4 生成了对世界的总结性描述,它认为这是对现实世界的理解。
这与人工智能模型训练的数据有关。
当今的大多数模型仅接受文本训练,不具备在现实世界中说话、听、闻和生活的能力。
这种情况与柏拉图的洞穴寓言类似。 生活在山洞里的人们只能看到洞壁上的影子,却无法认识到事物的真实存在。
仅在文本上训练的世界模型只能保证语法正确。 但本质上,它并不理解语言所指的内容,也缺乏直接接触环境的常识。
当前大型模型的主要局限性
大型语言模型(LLM)最具争议性的挑战是它们产生幻觉的倾向。
幻觉是指模型会伪造引用和事实,或者颠倒逻辑推论、因果推论等,并生成无意义的内容。
对大型语言模型的幻想源于它们对事件之间因果关系缺乏理解。
在《Is a Good ? A》论文中,研究人员证实了这一事实:
如此庞大的语言模型,无论现实中是否存在关系,它们都倾向于假设事件之间存在因果关系。
论文地址:
研究人员最终得出结论:
“一个好的因果解释者,但不是一个好的因果推理者。”
同样,这个结论也可以推广到其他LLM。
这意味着LLM本质上只具备通过观察进行因果归纳的能力,而不具备因果演绎的能力。
这也导致了LLM的局限性。 如果说智能()意味着从经验中学习,并将学到的内容转化为理解周围环境的世界模型,那么因果推理作为学习的基本要素,对于智能来说是不可或缺的。 遗失的部分。
现有的LLM缺乏这方面的内容,这也是Yann LeCun认为目前的大型语言模型无法成为AGI的原因。
综上所述
正如20世纪初量子力学的诞生所揭示的那样,现实往往与我们日常观察形成的直觉不同。
我们构建的语言、知识、文本数据,甚至视频、音频等材料,只是我们能体验到的现实中非常有限的一部分。
正如我们探索、学习和掌握一个违背我们直觉和经验的现实一样,只有当我们能够构建能够质疑自身现实、能够自我探究的系统时,AGI 才能真正实现。
而至少在现阶段,我们应该建立一个能够进行因果推论、理解世界的模型。
这一前景是人类历史上又向前迈出了一步,意味着对我们世界本质的进一步了解。
虽然AGI的出现会削弱我们独特的价值和我们存在的重要性,但通过不断的进步和认知边界的拓展,我们将更加清楚地认识人类在宇宙中的地位,以及人类与人类的关系。宇宙。
参考:
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com