感知机:神经网络之始
引言
了解计算机组成原理的我们都知道,计算机处理的所有复杂任务和计算,实际都可以通过简单的与非门叠加实现。而从上文中,我们知道了神经网络是可以通过叠加层的方式来叠加各类计算逻辑的。
那么只要我们 能够通过简单网络实现基础的与或非
逻辑运算,是否就可以通过叠加层的方式,将神经网络的表达能力扩展到可以表达计算机的所有复杂运算呢?
答案是肯定的!我们从感知机
来展开说明。
基本概念
感知机
(准确的说是单层感知机)是由两层神经元组成的最简单的神经网络模型,输入层接收外界输入信号,输出层是 M-P 神经元。
是输入信号,y 是输出信号, 是权重。感知机的信号只有 1/0 两种取值,0 表示不传递信号,1 表示传递信号。
输入层:接收特征向量,如 ,每个输入特征对应一个感知机的输入。
权重:每个输入特征都有一个相应的表示该特征对输出的影响的权重(weight),如 。
输入信号被送往神经元时,会被分别乘以固定的权重 ,神经元会计算传入信号的总和,只有当这个总和超过某个阈值
(),才会输出 1,也就是这个神经元被激活。
数学表示
感知机计算逻辑的直观表示为数学式 1:
用偏置项 b 表示阈值
,其中 b=-,感知机的计算逻辑可以表示为式 2:
偏置:为了使模型更加灵活,感知机还包含一个偏置(bias)项 b,帮助调整分类边界。
更一般的,我们将式 2 拆分为激活函数
的表示方式:
激活函数:用于处理加权和从而得到输出的函数。感知机常用的激活函数是阶跃函数(Step Function),其输出为 0 或 1,表示分类结果。
引入一个中间变量(加权和 a),将式 2 重写为:
加权求和:求输入特征的加权和,其中 是 的权重, 是偏置。
式 5 中输入信号的总和会被式 3 定义的激活函数 转换为最终输出,最终得到式 6:
逻辑运算
了解了感知机的计算逻辑,就可以尝试使用感知机进行几个计算机处理器的最基本逻辑运算:与、或、非、异或。
与、与非、或
与门
(AND Gate
)、与非门
(NAND Gate
)、或门
(OR Gate
)的真值表:
AND Gate | NAND Gate | OR Gate | ||
---|---|---|---|---|
0 | 0 | 0 | 1 | 0 |
1 | 0 | 0 | 1 | 1 |
0 | 1 | 0 | 1 | 1 |
1 | 1 | 1 | 0 | 1 |
以 AND Gate
为例,使用感知机实现 AND Gate 实际就是在式 5 中找到一组 参数,使得 为 (0, 0)、(0, 1)、(1, 0) 时输出 0, 为 (1, 1) 时输出 1。
若用 表示横轴, 表示纵轴,○ 表示 y=0,△ 表示 y=1。要找到合适的 参数,就相当于找到一条直线,用这条直线可以将 ○ 和 △ 完全分隔开。如图 2 所示, 这条直线就能很好的满足条件。
将 = (0.5, 0.5, -0.7) 代入式 5,可得式 6:
如式 6 所示,令感知机的权重参数 = (0.5, 0.5, -0.7) ,就能让 AND Gate 的 4 组 输入对应的输出 y 全部正确。
AND 运算过程的代码实现如下:
def AND(x1, x2):
"""
感知机 AND Gate 计算逻辑
"""
x = np.array([x1, x2]).T
w = np.array([0.5, 0.5])
b = -0.7
tmp = np.dot(x, w) + b # 等效于 x1 * w1 + x2 * w2 + b
return np.where(tmp <= 0, 0, 1)
print('测试单组 (x1, x2) 的与运算:')
print(AND(0, 0)) # 0
print(AND(1, 0)) # 0
print(AND(0, 1)) # 0
print(AND(1, 1)) # 1
print('测试多组 (x1, x2) 的与运算:')
x1 = np.array([0, 1, 0, 1])
x2 = np.array([0, 0, 1, 1])
print(AND(x1, x2)) # 0,0,0,1
同理,令 = (-0.5, -0.5, 0.7),可以使 NAND Gate
的 4 组 输入对应的输出 y 全部正确。如式 7 所示。
NAND 运算过程的代码实现如下:
def NAND(x1, x2):
"""
使用 numpy 实现(可批量计算的)感知机 NAND Gate 计算逻辑
"""
x = np.array([x1, x2]).T
w = np.array([-0.5, -0.5])
b = 0.7
tmp = np.dot(x, w) + b # 等效于 x1 * w1 + x2 * w2 + b
return np.where(tmp <= 0, 0, 1)
print('测试单组 (x1, x2) 的与非运算:')
print(NAND(0, 0)) # 1
print(NAND(1, 0)) # 1
print(NAND(0, 1)) # 1
print(NAND(1, 1)) # 0
print('测试多组 (x1, x2) 的与非运算:')
x1 = np.array([0, 1, 0, 1])
x2 = np.array([0, 0, 1, 1])
print(NAND(x1, x2)) # 1,1,1,0
同理,令 = (0.5, 0.5, -0.2),可以使 OR Gate
的 4 组 输入对应的输出 y 全部正确。如式 8 所示。
OR 运算过程的代码实现如下:
def OR(x1, x2):
"""
使用 numpy 实现(可批量计算的)感知机 OR Gate 计算逻辑
"""
x = np.array([x1, x2]).T
w = np.array([0.5, 0.5])
b = -0.2
tmp = np.dot(x, w) + b # 等效于 x1 * w1 + x2 * w2 + b
return np.where(tmp <= 0, 0, 1)
print('测试单组 (x1, x2) 的或运算:')
print(OR(0, 0)) # 0
print(OR(1, 0)) # 1
print(OR(0, 1)) # 1
print(OR(1, 1)) # 1
print('测试多组 (x1, x2) 的或运算:')
x1 = np.array([0, 1, 0, 1])
x2 = np.array([0, 0, 1, 1])
print(OR(x1, x2)) # 0,1,1,1
异或
为了初步验证上文所说“将神经网络的表达能力扩展到可以表达计算机的所有复杂运算是可行的”,我们尝试用叠加层的感知机实现一个相对复杂的异或逻辑运算。
逻辑异或(XOR Gate)
的真值表如下:
y | ||
---|---|---|
0 | 0 | 0 |
1 | 0 | 1 |
0 | 1 | 1 |
1 | 1 | 0 |
若要用单层感知机实现一个 XOR Gate
,相当于需要在图 3 所示的坐标轴找到一条直线,完全分隔 ○ 和 △,这是无论如何也无法实现的。
这就是单层感知机的局限性,它只能表示可以通过一条直线分割的空间,比如 AND Gate、NAND Gate、OR Gate,而稍微复杂的 XOR Gate 就无法通过单层感知机表示。
进一步分析,会发现 XOR
可以通过 AND Gate
、NAND Gate
、OR Gate
组合求得,比如:
也就是说,单层感知机无法表示的逻辑异或,我们可以通过叠加多个单层感知机来表示。用「深度学习:引介|未来已来」一文所述的神经网络来表示 XOR Gate
的运算逻辑,其网络结构如图 4 所示:
输入层的两个神经元接收输入信号 ,并通过 NAND 和 OR 两种加权计算分别将结果输出给隐层的两个神经元 。
将前文 NAND Gate 感知机的权重参数代入该网络,可得 :
将前文 OR Gate 感知机的权重参数代入该网络,可得 :
隐层的两个神经元将接收到的信号通过 AND 加权计算将结果输出给输出层的神经元 y,输出层将结果输出。
将前文 AND Gate 感知机的权重参数代入该网络,可得 y:
这就是 XOR Gate 感知机的结构及其整个推理过程。XOR Gate 的代码实现如下:
def XOR(x1, x2):
"""
使用 与、或、非 逻辑运算组合实现感知机 XOR gate 计算逻辑
"""
s1 = NAND(x1, x2)
s2 = OR(x1, x2)
return AND(s1, s2)
print('测试单组 (x1, x2) 的异或运算:')
print(XOR(0, 0)) # 0
print(XOR(1, 0)) # 1
print(XOR(0, 1)) # 1
print(XOR(1, 1)) # 0
print('测试多组 (x1, x2) 的异或运算:')
x1 = np.array([0, 1, 0, 1])
x2 = np.array([0, 0, 1, 1])
print(XOR(x1, x2)) # 0,1,1,0
感知机训练
感知机使用一种称为感知机学习算法的迭代方法进行训练。算法通过调整权重和偏置来最小化预测错误。
更新规则:基于
损失
(预测与真实标签之间的差异)。
权重
偏置
:其中 是学习率,控制每次更新的幅度; 是真实类别(标签); 是预测类别(输出)。
训练过程
感知机的训练过程就是通过使用学习算法反复调整权重和偏置,从而最小化预测错误:
- 初始化:随机初始化权重和偏置,通常权重初始化为小的随机值,偏置初始化为零。
- 训练:对于每个训练样本执行如下步骤:
- 正向传播(推理):计算加权和并应用激活函数,判断该样本的类别(0 或 1)。
- 更新权重和偏置:利用更新规则调整权重和偏置,更新规则参见上文。
- 迭代直到收敛:将训练过程重复进行,直到所有样本都正确分类或达到预设的迭代次数。
代码演示
以下是一个用于训练感知机并进行预测的简单的 Python 实现示例。
import numpy as np
class Perceptron:
def __init__(self, learning_rate=0.01, n_iterations=1000):
"""
初始化学习率、迭代次数、权重和偏置。
"""
self.learning_rate = learning_rate
self.n_iterations = n_iterations
self.weights = None
self.bias = None
def fit(self, X, y):
"""
训练模型。对每个训练样本,计算预测值并更新权重和偏置。
"""
# 初始化权重和偏置
n_samples, n_features = X.shape
self.weights = np.zeros(n_features)
self.bias = 0
# 训练过程
for _ in range(self.n_iterations):
for idx, x_i in enumerate(X):
# 计算加权和并应用阶跃函数
linear_output = np.dot(x_i, self.weights) + self.bias
y_predicted = self.activation_function(linear_output)
# 更新规则
update = self.learning_rate * (y[idx] - y_predicted)
self.weights += update * x_i
self.bias += update
def activation_function(self, x):
"""
使用阶跃函数作为激活函数。
"""
return 1 if x >= 0 else 0
def predict(self, X):
"""
根据训练好的权重和偏置,返回预测结果。
"""
linear_output = np.dot(X, self.weights) + self.bias
return [self.activation_function(i) for i in linear_output]
# 示例数据:逻辑与操作的训练数据
X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
y = np.array([0, 0, 0, 1]) # 逻辑与的标签
# 创建感知机实例并训练
perceptron = Perceptron(learning_rate=0.1, n_iterations=10)
perceptron.fit(X, y)
# 进行预测
predictions = perceptron.predict(X)
print("预测结果:", predictions)
# 预测结果: [0, 0, 0, 1]
使用简单的逻辑与(AND)操作作为训练数据,其中输入是二进制数对,输出为对应的逻辑与结果。创建一个感知机实例,使用训练数据进行训练,最后使用训练好的模型进行预测。
通过上述代码,我们展示了感知机的学习过程及其简单实现。这一过程展现了感知机如何根据输入数据不断更新权重,以便实现有效的分类任务。
前世今生
感知机(Perceptron)是人工神经网络的基础模型之一,也是最简单的神经网络形式。它是一种线性分类器,能够将输入数据分成两个类别。它模拟了生物神经元的工作原理,接受来自多种输入信号,并根据加权和来做出决策。
-
1950 年代:
- 感知机的概念由心理学家弗兰克·罗森布拉特(Frank Rosenblatt)在 1958 年提出。他希望通过建立一个能够模拟人脑功能的机器来实现模式识别。
- 首个感知机模型是一种线性分类器,能够简单地将输入特征分为两类。
-
1960 年代:
- 感知机引起了广泛的研究和兴趣,但其能力受到限制。韦宁斯基(Marvin Minsky)和肖克特(Seymour Papert)在 1969 年发表的《感知机》书中指出,感知机只能解决线性可分的问题,无法处理更复杂的非线性问题(如异或问题)。
- 这一论断导致了对人工神经网络的研究的暂时冷却,许多研究者转向其他机器学习方法。
-
1980 年代:
- 研究者们开始认识到多层感知机(MLP)的潜力。多层感知机通过引入一个或多个隐藏层,结合非线性激活函数,使得模型能够学习复杂的模式。
- 反向传播算法的提出(由 Geoffrey Hinton 等人)大幅提升了多层感知机的训练效率,使得网络能够通过梯度下降方法有效地优化权重。
-
1990 年代:
- 尽管神经网络在某些领域取得了成功,但由于计算资源有限和数据规模小,研究兴趣再次趋于平淡,其他方法如 支持向量机(SVM)和决策树成为主流。
-
21 世纪初:
- 随着计算能力的提升、数据集的丰富以及深度学习算法的进步(如卷积神经网络和递归神经网络的兴起),神经网络开始再次流行。
- ImageNet 竞赛与深度学习的成功引发了广泛关注,感知机及多层感知机的理论基础被重新审视。
-
现代应用
- 深度学习代表了感知机的进化,现今的神经网络能够通过多层结构捕捉复杂的特征,成功应用于图像识别、自然语言处理、语音识别等多个领域。
- 感知机作为神经网络的基础构件,仍在工程实践中发挥着重要作用,是理解和构建现代深度学习模型的基础。
结语
感知机经历了从起初的热潮到冷却,再到现代深度学习复兴的过程。其简单而有效的结构与思想成为了现代人工智能的基石,指引了神经网络在各个领域的广泛应用与发展。
感知机的基本结构与学习算法为现代复杂神经网络的设计奠定了理论基础,是理解更高级模型的关键。尽管受限于线性可分性,但其概念与学习算法是现代深度学习(如卷积神经网络、递归神经网络等)的发展提供了基础。感知机的思想指引研究者探索新的激活函数、优化算法及网络架构,从而推动深度学习领域的不断创新。
PS:感谢每一位志同道合者的阅读,欢迎关注、点赞、评论!