最新网址:www.xbiqu6.com
字:
关灯 护眼
笔趣阁 > 重生学神有系统 > 第158章 查岗?

第158章 查岗?

如果说“感知机”是单个的神经元,那么“多层感知机”就是将分散的神经元,连接成了网络。

在输入层和输出层之间,再加入若干层,每层若干个神经元。

然后每一层的每个神经元,与下一层的每个神经元,都通过权重参数建立起连接……

层与层之间,完全连接。

也就是说,第i层的任意一个神经元,一定与第i+1层的任意一个神经元相连。

这就是多层感知机,简称MLP。

但仅仅简单组合在一起,还不算真正的“人工神经网络”,必须对“感知机”的基本结构,做出一定的改进。

首先,必须加入隐藏层,以增强模型的表达能力。

隐藏层可以有多层,层数越多,表达能力越强,但与此同时,也会增加模型的复杂度,导致计算量急遽增长。

其次,输出层的神经元允许拥有多个输出。

这样模型就可以灵活地应用于各种分类回归,以及其他的机器学习领域,比如降维、聚类等。

此外,还要对激活函数做出扩展……

前一篇“感知机”论文中,主要使用的是阶跃函数sign,虽然简单易用,但是处理能力有限。

因此神经网络的激活函数,一般使用其他的非线性函数。

备选的函数有很多:sigmoid函数,tanh函数,ReLU函数……

江寒逐一进行了分析。

通过使用多种性能各异的激活函数,可以进一步增强神经网络的表达能力。

对于二分类问题,只需要一个输出神经元就够了。

使用sigmoid作为激活函数,来输出一个0到1之间的数值,用来表示结果为1的概率。

对于多类分类问题,一般在输出层中,安排多个神经元,每个分类一个。

然后用softmax函数来预测每个分类的概率……

描述完结构之后,就可以讨论一下“多层感知机”的训练了。

首先是MLP的训练中,经典的前向传播算法。

顾名思义,前向传播就是从输入层开始,逐层计算加权和,直到算出输出值。

每调整一次参数值,就需要重头到尾重新计算一次。

这样运算量是非常大的,如果没有强大的硬件基础,根本无法支撑这种强度的训练。

好在现在已经是2012年,计算机性能已经足够强悍。

前向传播无疑是符合直觉的,缺陷就是运算量很大,训练起来效率比较差。

与“感知机”的训练相比,MLP的训练需要引入损失函数和梯度的概念。

神经网络的训练,本质上是损失函数最小化的过程。

损失函数有许多种选择,经典的方法有均方误差、交叉熵误差等,各有特性和利弊。

整个训练过程是很清晰的。

先随机初始化各层的权重和偏置,再以损失函数为指针,通过数值微分求偏导的办法,来计算各个参数的梯度。

然后沿着梯度方向,以预设的学习率,逐步调整权重和偏置,就能求得最优化的模型……

写完这些就足够了,再多的内容,可以安排在下一篇文章里。

不过,江寒想了想,觉得这篇论文的内容,还是有点过于充实。

仔细琢磨了一下,干脆将其一分为二。

多层感知机的结构和前向传播的概述部分,单独成篇。

神经网络训练中,关于激活函数和损失函数讨论的部分,再来一篇。

然后分开投稿,这样不就可以多拿1个学术点了?

反正学术点又不看字数……

当然,这两篇论文都必须以前一篇的感知机为基础,分别进行阐述,而不能互为前提、互相引用。

这样就需要多动点脑筋了。

江寒又花了一个多小时,才将它们全都补充完整,并丰满起来。

接下来校队、润色一番后,翻译成英文,转换PDF……

投稿的时候,江寒仔细琢磨了一下,在三区里选了两家方向对口的期刊,投了出去。

没有选择影响因子更大的二区或一区期刊。

因为二区以上的期刊,虽然影响因子更高,发表后收获的学术点也多。

但发表难度太大,万一被打回来,再重新投递……

时间耽搁不起。

要知道,江寒只有三个月的时间。

一系列操作下来,差不多就到了10点半。

推荐阅读: 茫茫诸天 万界食材屋 夏威夷帝国 花都绝品医神 无限之盘古的逆袭 影帝的黑锅 明朝小公爷 十月知凉意 我真没想御兽啊 原初异兽