Xin Zhiyuan编辑报告:Taozi [Xin Zhiyuan介绍] AI教父Hinton,当然赢得了诺贝尔奖。现在,他关于“玻尔兹曼机器”的令人震惊的讲话已在APS杂志上发表。这种“历史酶”到底是什么说,曾经催化了一场深度学习革命? 2024年12月8日,诺贝尔奖获得者登台登台,并发表了题为“ Boltzmann Machine”的演讲。当时,斯德哥尔摩大学的OUA Magna礼堂受到了世界的关注。他分享了一个易于理解的,他和约翰·霍普菲尔德(John Hopfield)使用神经网络来促进自动学习发现的基本过程。目前,Hinton演讲的中心内容于8月25日正式发表在《美国物理学会杂志》(APS)上。纸质地址:https://journals.ops.org/rmp/rmp/pdf/10.1103/revmodphys.97.030502在1980年的十年中,有两个值得一提的阶级技术。现在它是深层的中央引擎学习,几乎无处不在。另一个是,Boltzmann的自动学习算法不再使用,并逐渐从人们的视野中消失。这次,欣顿的话语方法是在“ Boltzmann机器”中。最初,他幽默地宣称自己将做一些“傻瓜”的事情,并决定在不使用公式的情况下向所有人解释复杂的技术概念。什么是找到最低能量点的“ Hopfield网络”?从简单的二进制神经元网络开始,Hinton提出了“ Red Hopfield”的中心思想。每个神经元只有两个状态:1或0,最重要的是,神经元通过对称的权重连接。整个神经元网络的全球状态称为“建筑”,具有“善良”。 “好”是所有神经元中权重的总和,因此可以确定。如Diagprevious分支所示,权重高达4个。这是一个优势,即网络的配置,能量为GO的负值奥德。 “ Hopfield网络”的一般重要性是,每个神经元通过局部计算决定了如何减少能量。在这里,能量代表“邪恶”。因此,如果您打开或不关闭神经元,则完全取决于总加权入口的“正和负”。通过不断更新的神经元状态,该网络最终在“低能点”中稳定。但是,这并不是唯一的低能点,因为Hopfield网络具有许多低能点,并且最终可能会留下来。它们的保留取决于更新神经元的随机决策顺序以及神经元的随机决策顺序。如下:打开适当的神经元网络,这是更好的能量的最低点。它的善良是3+3-1,其富含能量为-5。 “ Hopfield网络”的吸引力在于,它可以是与内存相关的较低能量点。 Hinton指出:“如果您输入不完整的内存片段,然后应用因此,网络可以连续完成完整的内存。 Hopfield”与Terence Seinowski(Hopfield的学生)。我用它来创建感官输入的描述,并存储内存。将网络分为“可见神经元”和“神经神经丘陵”。 “第一个收到感官信息,例如二进制图像。后者用于创建感官输入的解释。Åk的特定组成的能量网络代表缺乏解释,他们想要的是对低eNE的描述rgy。例如,欣顿(Hinton)是摄影核心立方体,这是古典和模棱两可的线条的油漆,它显示了网络如何处理视觉信息的复杂性。他们将看到“凸表面”以及其他人将其视为“凹面”。窗口中的黑线实际上是图纸的边缘。这两条红线始于他们的眼睛,并在这条黑线的两端跨越了视力。问题是,在现实世界中,形成黑线的边缘是什么边缘?实际上,有很多可能性,所有不同的3D边缘最终在图像中产生相同的线。因此,视觉系统中最有问题的是如何拒绝这两个维度线并确定真正存在的边缘。为此,Hinton和Seinowski设计了一个网络,该网络可以将线路变成“线性神经元”的激活状态。然后它通过兴奋性(绿色)连接连接到“ 3D外周神经元”,这使它们能够抑制EACH其他,因此只有一个解释同时处于活动状态。这反映了知觉光学的许多原则。然后,Hinton将此方法应用于所有神经元。问题是应该激活哪些边缘神经元?您需要更多信息来回答这个问题。解释图像时,人类遵循某些原则。例如,假设两条线交叉,在3D空间中的同一点交叉并具有相同的深度。 In addition, the brain tends to see that objects cross at right angles. “脖子桶”的两个三维解释的网络可以形成两个稳定状态,这些状态与肩部和凸表面相对应。这种视觉解释方法带来了两个基本问题。搜索问题:工作被归类为本地优化,无法继续解释不好的解释,并且不能跳到更好的解释问题:网络如何自动训练网络而不是手动建立搜索问题:简介插入最基本的解决方案,“搜索问题”噪声神经元:无噪声神经元。这些神经元状态是“二进制”(1或0),但它们的决定是高度概率的,即将打开强烈的阳性进入。强有力的负面输入熄灭。接近零的门票引入随机性。噪音可以“攀登”神经元网络,并从较差的解释转向更好的解释,就像发现山谷中的最低点一样。 Boltzmann分销 +机器学习使用隐藏神经元上的随机更新,而神经元网络最终接近SO被称为“热平衡”。一旦达到热平衡,隐藏的神经元状态构成了入口的解释。在热平衡下,低能状态的可能性更大(对应于更好的解释)。以Necker Cube为例,网络倾向于最终选择更合理的三维解释。当然,热平衡不是SY茎保持单个状态,但是在玻尔兹曼分布之后,所有可能的配置的概率分布都是稳定的。在Boltzmann的分布中,一旦系统达到热平衡,特定配置中特定配置的概率完全取决于该配置的能量。另外,系统处于低能配置的可能性更大。要了解热平衡,物理学家有一个技巧:您必须想象一个由大量同一网络组成的巨大的“集合”。 “想象一下,无数的Hopfield网络,每个网络都以随机状态开始,并通过随机更新逐渐稳定组成关系。”同样,低能配置代表了更大比例的“实体”。总而言之,Boltzmann分布的原理是低能配置比高能配置更有可能。在“ Boltzmann Machin”中e”, the learning objective is to ensure that when the work produces an image, it is essentially called “dream, random imagination.” If this coincidence can be achieved and the hidden neuronal state can be captured effectively for deep reasons behind the image. In other words, learning the weights within a network is equivalent to knowing how to use these hidden neurons so that the network can generate images that resemble the real world. The “Boltzmann” learning algorithm is aimed在1983年,Hinton和Seinowski在“学习问题”中提出了“ Boltzmann自动学习算法”,以解决重量调整问题。 “小组”在cévisible荡妇中的真实图像,以使隐藏的细胞发展为热平衡。既定了。睡眠阶段:自由地使互联网成为“梦想”。 All neurons are randomly updated to thermal equilibrium.减少同时激活的几个神经元的连接重量。这种简单的算法改善了“梦想”中神经元网络产生的图像与感知图像在调整重量“唤醒”时的相似性之间的相似性。学习过程的本质是减少与网络觉醒阶段的真实数据相对应的能量。同时,与睡眠阶段自由产生的成分相对应的能量增加。正如欣顿所说:“您本质上是在教授这个网络。您相信您在醒来时看到的东西,相信您所看到的,而不是您在睡觉时梦dream以求的东西。”“共同启动:相关性的差异如上所述,这是“ Boltzmann Machine”的最大突出点,是必要的Informati Informati Informati在两个相关之间的差异中包括进行重量调整。网络“醒来”(观察真实数据),网络“梦想”以及它与“梦想”强制性时的频率。将所有内容传输到所有的权重,通过对称性连接和相关性差异完成学习。但是,ciror ciror的速度很大,如果速度很小。十七年后,Hinton突然意识到,通过限制“ Boltzmann机器”之间的连接,可以获得更快的学习算法,因此,有限的Boltzmann机器(RBM)可以使用此方法,以简化效果。阶段需要m实现热平衡的最终迭代。为此,Hinton引入了“对比分支”方法。通过以下步骤,这实现了加速学习:数据已输入可见单元。所有隐藏的神经元都与Balancear并行更新数据。更新所有可见单元以获取“重构”版本。再次更新所有隐藏的神经元。逮捕。 “有限的Boltzmann机器”实际上取得了出色的结果。例如,Netflix曾经使用RBM根据用户喜好推荐电影,并赢得用户用户预测竞赛。但是,仅相互连接的隐藏神经元是几个无法构建以识别图像中对象/声音的几层功能检测器。为此,Hinton在2006年进一步提出了“ RBM堆叠”方法。 RBM堆栈可以通过在三个步骤之后堆叠RBM来实现:使用数据培训您的RBM。 RBMEL激活模式的隐藏层用作数据训练跟随者G RBM:这个过程继续了解日益复杂的关系。堆叠这些玻尔兹曼机器后,它们忽略了对称连接,可以仅使用单向连接视为馈电网络。然后,这创建了功能层次结构。第一个隐藏层:捕获原始数据中的相关性。第二个隐藏层:捕获特征在第一层中的特性之间相关。创建越来越多的抽象表达式,例如:一旦整个堆叠完成,可以将另一个“最终层”添加到监督的学习中,例如猫和狗的图像。在这一点上,神经元网络显示了两个主要优势:学习速度远远超出了随机初始化。这是因为在培训之前,我们正在学习建模数据结构的合理特征。它还具有针对网络的出色概括功能。 La Mayor Parte del aprendizaje se Realiza sinSubersisión,y la inselle se extrete de extrete deLa Ressionancia de Los Datos。在2006年至2011年的“酶”历史时期,辛顿,本顿和神经元喂养网络等实验室研究人员使用“堆叠的RBMS”,然后再经过逆转录。直到2009年,Hinton George Dahl和Abdel Rahman Mohammed的学生表明,“堆叠的RBMS”对各种形式的语音片段的识别产生了很大的影响。这一发现完全改变了整个语音识别字段。对于2012年,“ RBM堆叠”系统已大大改善了Google Android设备声音的语音识别。论文地址:https://static.googleusercontent.com/media/research.google.com/zh-cn/pubs/pubs/archive/38131.pdf不幸的是,一旦有可能“堆叠的rbm”的可能性,先前的神经元网络的可能性就证明了这是一个先前预先提出的深度神经元网络的可能性,这是研究人员的其他方法,这些方法是其他研究员的方法。结果,“玻尔兹曼机”逐渐从T的主流中撤出他的历史。 Mejormás很晚,Hinton创造了一个非常清晰的Ratióphoro。但是,如果您是化学物质,您会发现“酶”非常有用。 “ Boltzmann机器”类似于化学的“酶”,并催化了深度学习的进步。一旦完成此转换,就不再需要酶。因此,他们可以将它们视为“历史酶”。但是,欣顿认为,使用“睡眠”阶段“学习”为算法提供了更加生物学理性和不对称途径,以避免反向传播。到目前为止,他仍然坚信:当上帝了解他如何学习大脑时,他肯定会发现睡眠期间的“反向学习”绝对是一个重要的联系。请参阅:https://singjuost.com/transcript-obel-nobel-mection-mection-tion-geoffrey-hinton-nobel-inbel-in-physics-2024/https:/https://journ als.aps.ors.org/rmp/rmp/abstract/10.1103/revmodphys.97.0.0.0.050505050205020502050205020HTPS: //www.nobelprize.org/uploads/2024/12/hinton-tion-1.pdf
特别声明:先前的内容(iNcludy Photos和视频(如果有)已被网络自我媒体平台的用户收费和发布。该平台仅提供信息存储服务。
注意:以前的内容(如果您有照片或视频)将由社交媒体平台NetEase Hao的用户收取和发布,仅提供信息存储服务。