100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > 每天五分钟机器学习:从神经网络的输入层到输出层是如何计算的?

每天五分钟机器学习:从神经网络的输入层到输出层是如何计算的?

时间:2020-04-25 06:33:30

相关推荐

每天五分钟机器学习:从神经网络的输入层到输出层是如何计算的?

8 - 3 - Model Representation I (12 min).

模型表示1

本文重点:

上节课分享了8-1,本节课程直接分享8-3,原因就是8-2的意义不大,这里省略了。首先介绍了神经元有多个输入和一个输出,每一个神经元可以看成是逻辑回归,多个神经元组合而成了神经网络。并且解释了一下从输入样本开始,我们的数据怎样从输入层到输出层进行计算的,现在将神经网络简单的看成就是多个逻辑回归的组合。

如果我们要是使用神经网络的时候,我们应该如何表示我们的假设或者模型呢?

如上所示这个就是一个神经元,每一个神经元都是一个处理单元(神经核),它有很多的输入(树突)和一个输出(轴突),神经网络是大量神经元相互连接并通过电脉冲来交流的一个网络。

神经元和神经元之间是通过弱电位沟通的,这些弱电流也被称为动作电位。所以神经元要想沟通,它就会通过它的轴突发送一段微弱电流给其它神经元的树突,然后这个神经元计算以后,继续通过轴突传递给其它的神经元的树突,以此类推。

神经网络模型建立在很多神经元之上,每一个神经元又是一个学习模型。这些神经元(也叫激活单元,activation unit)采纳一些特征作为输入,并且根据本身的模型提供一个输出。下图是一个以逻辑回归模型作为自身学习模型的神经元示例,在神经网络中,参数又被称为权重(weight)。

其中hθ(x)为:

模型参数θ我们在神经网络中称为权重。

当我们在绘制一个神经网络的时候,我们通常只绘制输入结点x1,x2,x3,但有时也可以额外增加一个额外的结点x0。X0被称为偏置单元或偏置神经元,但因为x0=1,所以有时候会画出它,有时候不会画出它,这取决于是否对例子有利。

有些时候,我们会称神经元为一个有s型函数或者逻辑函数作为激励函数的人工神经元,在神经网络术语中,激励函数只是对类似非线性函数g(z)的另外一个术语。

我们可以把神经元的作用定义为:对输入z执行激励函数从而得到激励g(z)

我们现在已经知道了一个小圆圈就是一个神经元,那么很多个小圆圈组合到一起就是一个神经网络。如下所示:

我们可以看出这个神经网络中一共有三层(输入层按照道理不算神经网络的层数,这里暂时算),首先我们来看第一层Layer1(输入层,输入特征项):它有输入单元x1、x2、x3和额外的结点x0=1(偏执单元bias unit)。

我们此时再来看一下第二层Layer2(隐藏层):它有神经元a1(2)、a2(2)、a3(2)和偏置单元a0=1。隐藏层的作用就是接收上一层的数据,然后将数据进行处理,最后呈递到下一层。

第三层Layer3(输出层),它的作用就是计算hθ(X)

注意:神经网络中只有一个输入层和一个输出层,但是可以有多个隐藏层,我们可以看到神经网络的输入,也可以看到神经网络的输出,但是隐藏层中的值你是看不到的。

为了更加方便地表示神经网络,我们要引入一些特定地符号:

参数θ是第j 1层的激活单元为行数,以j层的激活单元数 1,之所以加1是因为我们一般在第j层加上一个偏置单元,如果要是不加这个偏指单元的话,就不用加1了。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。