感知器-从零开始学深度学习
未来将是人工智能和大数据的时代,是各行各业使用人工智能在云上处理大数据的时代,深度学习将是新时代的一大利器,在此我将从零开始记录深度学习的学习历程。
我希望在学习过程中做到以下几点:
了解各种神经网络设计原理。掌握各种深度学习算法的python编程实现。运用深度学习解决实际问题。
让我们开始踏上深度度学习的征程。
一、感知器原型
想要了解“神经网络”,我们需要了解一种叫做“感知器”的⼈⼯神经元。感知器在 20 世纪五、六⼗年代由科学家 Frank Rosenblatt 发明,⼀个感知器接受⼏个输⼊,并产⽣⼀个输出。
下图是一个感知器:
⽰例中的感知器有三个输⼊x1、x2、x3(1*w0作为偏置,后面会讲到)。通常可以有更多或更少输⼊。 Rosenblatt 提议⼀个简单的规则来计算输出。他引⼊权重w1、w2、w3..表⽰相应输⼊对于输出重要性的实数(权重)。神经元的输出为0 或者 1,则由计算权重后的总和
∑jwjxj
⼩于或者⼤于⼀些阈值决定。和权重⼀样, 阈值是⼀个实数,⼀个神经元的参数。⽤更精确的代数形式: 这就是⼀个感知器所要做的所有事情! 而我们把阖值移动到不等式左边,并用感知器的偏置b=-threshold代替,用偏置而不用阖值。其中实现偏置的一种方法就是如前图所示在输入中引入一个偏置神经元x0=1,则b=x0*w0,那么感知器的规则可以重写为:
此时就可以使用阶跃函数来作为感知器的激励函数。
到此我们可以发现,一个感知器由以下几部分组成
输入权值 一个感知器可以接收多个输入
(x1,x2,...,xn∣xi∈R)
,每个输入上有一个权值
wi∈R
,此外还有一个偏置项
b∈R
,就是上图中的
w0
。
激活函数 感知器的激活函数可以有很多选择在此我们选择下面这个阶跃函数来作为激活函数
f
:
f(z)={1z>00otherwise
输出 感知器的输出由下面这个公式来计算
y=f(w∙x+b)公式(1)
接下去我们将会用一个例子来理解感知器的模型。
模型的建立是运用深度学习方法解决问题的基础。
二、感知器的运用
1、感知器实现逻辑运算
我们设计一个感知器,让它来实现and运算。程序员都知道,and是一个二元函数(带有两个参数和),下面是它的真值表:
x1
x2
y
0
0
0
0
1
0
1
0
0
1
1
1
为了计算方便,我们用0表示false,用1表示true。
我们令w1=0.5;w2=0.5;b=−0.8,而激活函数
f
就是前面写出来的阶跃函数,这时,感知器就相当于and函数。我们验算一下:
输入上面真值表的第一行,即,那么根据公式(1),计算输出:
y=f(w∙x b)=f(w1x1 w2x2 b)=f(0.5×0 0.5×0−0.8)=f(−0.8)=0 也就是当
x1x2
都为0的时候,
y
为0,这就是真值表的第一行。读者可以自行验证上述真值表的第二、三、四行。
可以看到感知器本身是一个线性分类器,它通过求考虑了权重的各输入之和与阖值的大小关系,对事物进行分类。
所以任何线性分类或线性回归问题都可以用感知器来解决。前面的布尔运算可以看作是二分类问题,即给定一个输入,输出0(属于分类0)或1(属于分类1)。
如下面所示,and运算是一个线性分类问题,即可以用一条直线把分类0(false,红叉表示)和分类1(true,绿点表示)分开。
然而,感知器却不能实现异或运算,如下图所示,异或运算不是线性的,你无法用一条直线把分类0和分类1分开。
2、感知器的训练
现在,你可能困惑前面的权重项和偏置项的值是如何获得的呢?这就要用到感知器训练算法:将权重项和偏置项初始化为0,然后,利用下面的感知器规则迭代的修改wi和
b
,直到训练完成。
wib←wi Δwi←b Δb 其中:
ΔwiΔb=η(t−y)xi=η(t−y)
wi
是与输入
xi
对应的权重项,
b
是偏置项。事实上,可以把b看作是值永远为1的输入所对应的权重
w0
。
t
是训练样本的实际值,一般称之为label。而y是感知器的输出值,它是根据公式(1)计算得出。
η
是一个称为学习速率的常数,其作用是控制每一步调整权的幅度。
每次从训练数据中取出一个样本的输入向量
x
,使用感知器计算其输出y,再根据上面的规则来调整权重。每处理一个样本就调整一次权重。经过多轮迭代后(即全部的训练数据被反复处理多轮),就可以训练出感知器的权重,使之实现目标函数。
三、python实现感知器
class Perceptron(object):
def __init__(self, input_num, activator):
'''
初始化感知器,设置输入参数的个数,以及激活函数。
激活函数的类型为double -> double
'''
self.activator = activator
self.weights = [
0.0 for _
in range(input_num)]
self.bias =
0.0
def __str__(self):
'''
打印学习到的权重、偏置项
'''
return 'weights\t:%s\nbias\t:%f\n' % (self.weights, self.bias)
def predict(self, input_vec):
'''
输入向量,输出感知器的计算结果
'''
return self.activator(
reduce(
lambda a, b: a + b,
map(
lambda (x, w): x * w,
zip(input_vec, self.weights))
,
0.0) + self.bias)
def train(self, input_vecs, labels, iteration, rate):
'''
输入训练数据:一组向量、与每个向量对应的label;以及训练轮数、学习率
'''
for i
in range(iteration):
self._one_iteration(input_vecs, labels, rate)
def _one_iteration(self, input_vecs, labels, rate):
'''
一次迭代,把所有的训练数据过一遍
'''
samples = zip(input_vecs, labels)
for (input_vec, label)
in samples:
output = self.predict(input_vec)
self._update_weights(input_vec, output, label, rate)
def _update_weights(self, input_vec, output, label, rate):
'''
按照感知器规则更新权重
'''
delta = label - output
self.weights = map(
lambda (x, w): w + rate * delta * x,
zip(input_vec, self.weights))
self.bias += rate * delta
def f(x):
'''
定义激活函数f
'''
return 1 if x >
0 else 0
def get_training_dataset():
'''
基于and真值表构建训练数据
'''
input_vecs = [[
1,
1], [
0,
0], [
1,
0], [
0,
1]]
labels = [
1,
0,
0,
0]
return input_vecs, labels
def train_and_perceptron():
'''
使用and真值表训练感知器
'''
p = Perceptron(
2, f)
input_vecs, labels = get_training_dataset()
p.train(input_vecs, labels,
10,
0.1)
return p
if __name__ ==
'__main__':
and_perception = train_and_perceptron()
print and_perception
print '1 and 1 = %d' % and_perception.predict([
1,
1])
print '0 and 0 = %d' % and_perception.predict([
0,
0])
print '1 and 0 = %d' % and_perception.predict([
1,
0])
print '0 and 1 = %d' % and_perception.predict([
0,
1])