人工智能的诞生 (67).pdf
《人工智能的诞生 (67).pdf》由会员分享,可在线阅读,更多相关《人工智能的诞生 (67).pdf(2页珍藏版)》请在文库网上搜索。
1、 单层感知器学习实际上是一种基于纠错学习规则,采用迭代的思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。假设X(k)和W(k)分别表示学习算法在第k次迭代时输入向量和权值向量,为方便,把阈值作为权值向量W(k)中的第一个分量,对应地把“-1”固定地作为输入向量X(k)中的第一个分量。即W(k)和X(k)可分别表示如下:X(k)=-1,x1(k),x2(k),xn(k)W(k)=(k),w1(k),w2(k),wn(k)即x0(k)=-1,w0(k)=(k)。单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。假设一个样本空间可以被划分为A、B两类,定义:功能函数功能
2、函数:若输入样本属于A类,输出为+1,否则其输出为-1。期望输出期望输出:若输入样本属于A类,期望输出为+1,否则为-1。单层感知器学习算法描述:单层感知器学习算法描述:(1)设t=0,初始化连接权和阈值。即给wi(0)(i=1,2,n)及(0)分别赋予一个较小的非零随机数,作为初值。其中,wi(0)是第0次迭代时输入向量中第i个输入的连接权值;(0)是第0次迭代时输出节点的阈值;(2)提供新的样本输入xi(t)(i=1,2,n)和期望输出d(t);(3)计算网络的实际输出:(4)若y(t)=1,不需要调整连接权值,转(6)。否则,调整权值,执行下一步 (5)调整连接权值其中,是一个增益因子,
3、用于控制修改速度,其值如果太大,会影响wi(t)的收敛性;如果太小,又会使wi(t)的收敛速度太慢;(6)判断是否满足结束条件,若满足,算法结束;否则,将t值加1,转(2)重新执行。这里的结束条件一般是指wi(t)对一切样本均稳定不变。若输入的两类样本是线性可分的,则该算法就一定会收敛。否则,不收敛。例:用单层感知器实现逻辑例:用单层感知器实现逻辑“与与”运算。运算。解:根据“与”运算的逻辑关系,可将问题转换为:输入向量:X1=0,0,1,1 X2=0,1,0,1输出向量:Y=0,0,0,1 为减少算法的迭代次数,设初始连接权值和阈值取值如下:w1(0)=0.5,w2(0)=0.7,(0)=0
- 1.请仔细阅读文档,确保文档完整性,对于不预览、不比对内容而直接下载带来的问题本站不予受理。
- 2.下载的文档,不会出现我们的网址水印。
- 3、该文档所得收入(下载+内容+预览)归上传者、原创作者;如果您是本文档原作者,请点此认领!既往收益都归您。
下载文档到电脑,查找使用更方便
30 文币 0人已下载
下载 | 加入VIP,免费下载 |
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能的诞生 67 人工智能 诞生 67