当前位置: 首页 > news >正文

自己做网站维护挣钱吗搜狗快速收录方法

自己做网站维护挣钱吗,搜狗快速收录方法,现在什么app引流效果好,国内外高校门户网站建设的成功经验与特色分析反向传播(back propagation,BP)算法也称误差逆传播,是神经网络训练的核心算法。我们通常说的 BP 神经网络是指应用反向传播算法进行训练的神经网络模型。反向传播算法的工作机制究竟是怎样的呢?我们以一个两层&#xf…

反向传播(back propagation,BP)算法也称误差逆传播,是神经网络训练的核心算法。我们通常说的 BP 神经网络是指应用反向传播算法进行训练的神经网络模型。反向传播算法的工作机制究竟是怎样的呢?我们以一个两层(即单隐层)网络为例,也就是图 8-5 中的网络结构,给出反向传播的基本推导过程。

假设输入层为 x x x ,有 m m m个训练样本,输入层与隐藏层之间的权重和偏置分别为 w 1 w_1 w1 b 1 b_1 b1,线性加权计算结果为: z 1 = w 1 x + b 1 z_1 = w_1 x + b_1 z1=w1x+b1,采用 Sigmoid 激活函数,激活输出为: a 1 = σ ( z 1 ) a_1 = \sigma(z_1) a1=σ(z1)
而隐藏层到输出层的权重和偏置分别为 w 2 w_2 w2 b 2 b_2 b2,线性加权计算结果为: z 2 = w 2 x + b 2 z_2 = w_2 x + b_2 z2=w2x+b2,激活输出为: a 2 = σ ( z 2 ) a_2 = \sigma(z_2) a2=σ(z2)。所以,这个两层网络的前向计算过程是为: x → z 1 → a 1 → z 2 → a 2 x → z_1 → a_1 → z_2→a_2 xz1a1z2a2

直观而言,反向传播就是将前向计算过程反过来,但必须是梯度计算的方向反过来,假设这里采用如下交叉熵损失函数:
L ( y , a ) = − ( y log ⁡ a + ( 1 − y ) log ⁡ ( 1 − a ) ) (8-11) L(y, a) = -(y \log a + (1 - y) \log (1 - a)) \tag{8-11} L(y,a)=(yloga+(1y)log(1a))(8-11)

反向传播是基于梯度下降策略的,主要是从目标参数的负梯度方向更新参数,所以基于损失函数对前向计算过程中各个变量进行梯度计算是关键。将前向计算过程反过来,基于损失函数的梯度计算顺序就是 d a 2 → d z 2 → d w 2 → d b 2 → d a 1 → d z 1 → d w 1 → d b 1 da_2→ dz_2 → dw_2 → db_2→da_1→ dz_1→ dw_1 → db_1 da2dz2dw2db2da1dz1dw1db1

首先,计算损失函数 L ( y , a 2 ) L(y, a_2) L(y,a2) 关于 a 2 a_2 a2 的导数 d a 2 da_2 da2,影响输出 a 2 a_2 a2 的是谁呢?由前向传播可知, a 2 a_2 a2 是由 z 2 z_2 z2 经激活函数激活后计算而来的,所以计算损失函数关于 z 2 z_2 z2 的导数 d z 2 dz_2 dz2,必须经过 a 2 a_2 a2 进行复合函数求导,即微积分中常说的链式求导法则。然后继续往前推导,影响 z 2 z_2 z2 的又是哪些变量呢?由前向计算可知, z 2 = w 2 x + b 2 z_2 = w_2x + b_2 z2=w2x+b2,影响 z 2 z_2 z2 的有 w 2 w_2 w2 a 1 a_1 a1 b 2 b_2 b2,继续按照链式求导法则进行求导即可。最终以交叉熵损失函数为代表的两层神经网络的反向传播量化求导计算公式如下:

∂ L ∂ a 2 = d d a 2 L ( a 2 , y ) = ( − y log ⁡ a 2 − ( 1 − y ) log ⁡ ( 1 − a 2 ) ) ′ = − y a 2 + 1 − y 1 − a 2 (8-12) \frac{\partial L}{\partial a_2} = \frac{d}{da_2}L(a_2, y) = (-y\log a_2 - (1-y)\log(1-a_2))' = -\frac{y}{a_2}+ \frac{1-y}{1-a_2} \tag{8-12} a2L=da2dL(a2,y)=(yloga2(1y)log(1a2))=a2y+1a21y(8-12)

∂ L ∂ Z 2 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 = a 2 − y (8-13) \frac{\partial L}{\partial Z_2} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2} = a_2 - y \tag{8-13} Z2L=a2LZ2a2=a2y(8-13)

∂ L ∂ w 2 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ w 2 = 1 m ∂ L ∂ Z 2 a 1 = 1 m ( a 2 − y ) a 1 (8-14) \frac{\partial L}{\partial w_2} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial w_2} = \frac{1}{m}\frac{\partial L}{\partial Z_2} a_1= \frac{1}{m}(a_2 - y)a_1 \tag{8-14} w2L=a2LZ2a2w2Z2=m1Z2La1=m1(a2y)a1(8-14)

∂ L ∂ b 2 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ b 2 = ∂ L ∂ Z 2 = a 2 − y (8-15) \frac{\partial L}{\partial b_2} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial b_2} = \frac{\partial L}{\partial Z_2} = a_2 - y \tag{8-15} b2L=a2LZ2a2b2Z2=Z2L=a2y(8-15)

∂ L ∂ a 1 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ a 1 = ( a 2 − y ) w 2 (8-16) \frac{\partial L}{\partial a_1} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial a_1} = (a_2 - y)w_2 \tag{8-16} a1L=a2LZ2a2a1Z2=(a2y)w2(8-16)

∂ L ∂ Z 1 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ a 1 ∂ a 1 ∂ Z 1 = ( a 2 − y ) w 2 σ ′ ( Z 1 ) (8-17) \frac{\partial L}{\partial Z_1} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial a_1} \frac{\partial a_1}{\partial Z_1} = (a_2 - y)w_2\sigma'(Z_1) \tag{8-17} Z1L=a2LZ2a2a1Z2Z1a1=(a2y)w2σ(Z1)(8-17)

∂ L ∂ w 1 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ a 1 ∂ a 1 ∂ Z 1 ∂ Z 1 ∂ w 1 = ( a 2 − y ) w 2 σ ′ ( Z 1 ) x (8-18) \frac{\partial L}{\partial w_1} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial a_1} \frac{\partial a_1}{\partial Z_1}\frac{\partial Z_1}{\partial w_1} = (a_2 - y)w_2\sigma'(Z_1)x \tag{8-18} w1L=a2LZ2a2a1Z2Z1a1w1Z1=(a2y)w2σ(Z1)x(8-18)

∂ L ∂ b 1 = ∂ L ∂ a 2 ∂ a 2 ∂ Z 2 ∂ Z 2 ∂ a 1 ∂ a 1 ∂ Z 1 ∂ Z 1 ∂ b 1 = ( a 2 − y ) w 2 σ ′ ( Z 1 ) (8-19) \frac{\partial L}{\partial b_1} = \frac{\partial L}{\partial a_2}\frac{\partial a_2}{\partial Z_2}\frac{\partial Z_2}{\partial a_1} \frac{\partial a_1}{\partial Z_1}\frac{\partial Z_1}{\partial b_1} = (a_2 - y)w_2\sigma'(Z_1) \tag{8-19} b1L=a2LZ2a2a1Z2Z1a1b1Z1=(a2y)w2σ(Z1)(8-19)


以上公式具体的推导过程:
公式8-13:损失函数对输出层激活值Z2的导数
公式8-14:损失函数对输出层权重w2的梯度
公式8-15:损失函数对输出层偏置b2的梯度
公式8-16:损失函数对隐藏层激活值a1的梯度
公式8-17:损失函数对隐藏层加权输入Z1的导数
公式8-18:损失函数对隐藏层权重w1的梯度
公式8-19:损失函数对隐藏层偏置b1的梯度

http://www.ritt.cn/news/3538.html

相关文章:

  • 招聘网站建设方案模板软件推广平台有哪些
  • 河南省建设厅网站 吴浩百度指数分析
  • 长沙做网站备案创建网站的基本流程
  • asp.net网站开发流程百度关键词排名怎么查
  • 网站站外优化怎么做网站页面优化方法
  • wordpress文本编辑武汉网站设计十年乐云seo
  • 电子元器件网站建设优化大师哪个好
  • 安徽省住房和城乡建设厅官方网站短期职业技能培训班
  • 做化妆品的网站有哪些百度关键词seo排名软件
  • 简述商务网站建设步骤简述网站建设的流程
  • 建设直播网站软件网站开发软件有哪些
  • 做外贸如何浏览国外网站谷歌自然排名优化
  • 企业信息查询平台官网河南自助建站seo公司
  • 怎么样通过做网站赚钱吗百度服务平台
  • 东省住房和城乡建设厅网站如何推广自己成为网红
  • 没有做等保的网站不能上线对吗高级搜索百度
  • 备案网站出售怎么做网络推广最有效
  • 华强北商城官网app最新seo新手教程
  • 西安网站建设制作价格低爱链网中可以进行链接买卖
  • 西安做网站魔盒文军seo
  • wordpress复制的图片不显示图片广州网站优化步骤
  • 网站怎么做推广seo推广招聘
  • wpdx主题wordpress免费油烟机seo关键词
  • 创建网站制作仪表企业nba哈登最新消息
  • 新农村建设网站网站排名靠前的方法
  • wordpress外贸商城aso优化app推广
  • 贵阳有哪些可以制作网站的公司人民日报新闻
  • 移动网站开发教学大纲搜索引擎营销方式
  • 高校网站建设资料库百度一下百度下载
  • 唐山网站建设报价南昌seo搜索优化