null6.2. 感知器 (Perceptron) 1958年,(美)F.Rosenblatt提出,适于简单的模式分类问题。6.2. 感知器 (Perceptron)输入:x1, x2 ,…, xn
输出:yk权: wk1, wk2, …, wkn
阈值:bk (函数f 的阈值)null感知器实际输出:其中,uk = = W*X+θ、 θ = bk = f (uk)= f (wk1x1+ wk2x2+…+wknxn bk)= f (W*X+θ)yk = f ( • )6.2.1. 感知器模型null选择f (x)为二值输出:该式的含义:
函数f (x)将输入x分为了两类:1类或0类。
函数f (x)=0,为两类的分界线(面)。6.2.1. 感知器模型null输入分类: 1或0, A或B;
分界线(面): W*X+θ=0 为;
感知器分类: 与参数{ W, θ}紧密相关。感知器的分类6.2.1. 感知器模型null感知器的分类6.2.1. 感知器模型null感知器的分类分界线W*X+θ,是由参数{ W,θ}来确定的;
改变参数{ W,θ} ,就可以改变空间的具体划分;
要实现对输入的划分,就需对{ W,θ}进行调整。6.2.1. 感知器模型null设:神经元nj和ni、其连接为wij
Ni输入为oj、输出为ai,理想输出为tiHebb学习: 如果两个神经元激活,则其连接将加强:
Δwij = g(ai , ti) · h(oj , wij)学习 调节 { W, θ }6.2.1. 感知器模型null若yi = ti,则△wij(k) = 0,△θi(k) = 0,原wij和θi不变。
若yi =0,ti=1,则 △wij(k) = pj, △θi(k) = 1。
若yi =1,ti=0,则 △wi(k) = -pj,△θi (k) = -1。6.2.1. 感知器模型感知器学习规则(Delta学习):null确定样本:输入向量P、目标向量T。
网络大小:根据向量的维数来选择网络规模
初始化:W、b取随机值,范围[-1, +1]。
网络输出:根据P、W、b来计算网络的输出Y。
学习偏差:E=T-Y。
新的网络参数:
W΄ = W + E×PT 、 θ΄ = θ + E
反复训练,直到达到目标,或达到最大的训练次数。学习/训练步骤6.2.1. 感知器模型null例 设感知器:
W=[1,1]T θ=1。
实现对如下样本的两分类:
p(1)=(-1,1)T p(2)=(1,0)T 6.2.1. 感知器模型null这里,W、P 将阈值包含进去,构成扩展的权和样本。将公式作一个简单变换:6.2.1. 感知器模型null初始状态6.2.1. 感知器模型null训练感知器:null学习前:权W样本空间划分分类效果样本在划分线的同一侧,即为同一类,因此没有达到分类的效果。6.2.1. 感知器模型null学习后:权W样本空间划分分类效果样本分布在划分线的两侧:{ A }、 { B } ,即它们被认为是不同类。
因此,感知器具有对样本分类的功能。6.2.1. 感知器模型null验证:输入样本 p(1) = (-1,1)T输入样本 p(2) = (1,0)T6.2.1. 感知器模型null线性可分---AND逻辑p1 p2 p1 AND p2
0 0 0
0 1 0
1 0 0
1 1 16.2.1. 感知器模型null线性不可分--- XOR逻辑p1 p2 p1 XOR p2
0 0 0
0 1 1
1 0 1
1 1 06.2.1. 感知器模型null分类特性感知器将输入信号分为两类:输出0或1;
感知器的分界线(面): W*X + θ = 0 ;
感知器的分类能力,取决于该方程。单层感知器的分类能力有限;
只能对线性可分的样本进行分类;
对于非线性样本,则无法进行正确划分。6.2.1. 感知器模型小 结分类能力