深度学习|损失函数:网络参数优化基准
引言
在上文「深度学习|模型训练:手写 SimpleNet」中,我们以简单的 Python 代码演示了神经网络的整个训练过程,我们知道了神经网络的学习
就是从数据样例中自动学得神经网络的权重参数最优解的过程。其中不难发现,要想让模型参数在模型训练的迭代中得到一次次的优化,其中损失函数起着至关重要的作用,损失函数是衡量模型参数好坏的基准,选择合适的损失函数是决定模型可以有效训练的前提条件。
本文我们将进一步介绍更多不同的损失函数,介绍它们的定义与代表的含义,以及它们在神经网络训练中的如何起到“促进”的作用。
均方误差
均方误差
(Mean Squared Error
, MSE
)是深度学习和机器学习中最常用的损失函数,尤其在回归问题中。
均方误差是模型的预测值()与实际值()之间差异的平方的平均值,其数学公式为式 1:
其中 是样本数量; 是实际值; 是预测值。
从均方误差的定义可以看出,它对于量化预测值与实际结果之间的差异非常有效。均方误差越小,说明模型的预测越准确(衡量预测精度)。在训练神经网络时,我们通常会使用均方误差作为损失函数,通过优化该损失函数,使得模型的预测结果尽可能接近实际结果,以最小化预测误差,从而提高模型性能。
计算示例
假设我们有四组预测值和实际值 如下:
- 预测值:
- 实际值:
我们首先计算每个样本的平方误差:
然后,将这些平方误差求和,并求其平均值:
均方误差常用于回归问题,能够有效地衡量预测值与实际值之间的平均平方差。由于较大的误差值被平方,提高了其对模型训练过程中的重要性(敏感度
),使模型能够更倾向于“关注”出错较大的样本,因此均方误差在深度学习和许多统计模型中被广泛应用。
矩阵形式
在大多时候模型单个样例的输出不是一个单值,而是一个包含 k 个值的数组(向量),我们可以将对上文单值输出的均方误差推广到对数组输出的均方误差计算。求一批预测结果的数组输出的均方误差,可以用式 2 表示:
其中 表示样本数量,k 表示输出数组的长度; 是第 i 个样例的第 j 个输出的实际值; 是第 i 个样例的第 j 个输出的预测值。取 是为了方便后续计算方便,在求导中化掉。
在前文的手写数字识别任务中,我们知道神经网络输出的 one-hot
表示的 10 个 y 值,分别代表了推理结果为 0 ~ 9 的概率。
假设我们有两组预测和实际值如下:
- 预测值 1:
[0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]
(索引位 2 的概率值最大,表示预测结果为数字 2); - 预测值 2:
[0.5, 0.05, 0.2, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]
(索引位 0 的概率值最大,表示预测结果为数字 0); - 实际值:
[0, 0, 1, 0, 0, 0, 0, 0, 0, 0]
(实际结果为数字 2); - 实际值:
[1, 0, 0, 0, 0, 0, 0, 0, 0, 0]
(实际结果为数字 0);
按照式 2 计算均方误差:
代码实现
均方误差的 Python 代码实现如下:
import numpy as np
def mean_squared_error(y, t):
"""
均方误差函数
Args:
y: 神经网络的输出
t: 监督数据
Returns:
float: 均方误差
"""
batch_size = y.shape[0]
return 0.5 * np.sum((y-t)**2) / batch_size
# 示例数据
y_true = np.array([2.5, 0.0, 2.0, 8.0]) # 真实值
y_pred = np.array([3.0, -0.5, 2.0, 7.0]) # 预测值
# 计算并输出均方误差
mse = mean_squared_error(y_pred, y_true)
print("Mean Squared Error (MSE):", mse)
# Mean Squared Error (MSE): 0.1875
这里引入了取最终结果的 ,所以所得 0.1875 正好是上文示例中计算结果的一半。
由于均方误差是一个连续且光滑的函数(平滑性),许多优化算法(如梯度下降法
)可以有效利用其梯度信息进行参数更新,从而有效提高学习效率。
对于很多像预测房价、温度等的回归问题,均方误差是最常用的损失函数,它能够有效捕捉模型预测的偏差,从而指导模型朝着更小的误差方向调整。借助梯度下降法, 可以通过对均方误差函数求关于模型权重参数的导数,然后随着梯度向下调整模型参数,使得模型的预测结果更加准确。
均方误差由于其对大偏差实例的敏感性
,当存在异常值的情况下,可能导致模型不稳定。在面对异常值时,可以考虑使用其他损失函数,如均绝对误差
(Mean Absolute Error
, MAE
)或鲁棒回归损失函数
。
交叉熵误差
交叉熵误差
(Cross-Entropy Loss
)可用于量化两个概率分布之间的差异,比如预测分布和真实标签分布之间的差距,也是一种很常用的损失函数,尤其在分类任务中。
在二分类问题中,交叉熵误差的计算公式如式 3:
在多分类问题中,交叉熵误差的计算工时如式 4:
其中:
- 是交叉熵误差。
- 是样本的总数。
- 表示第 n 个样本的真实标签(通常为 0 或 1)。
- 表示模型对第 n 个样本预测为正类的概率。
- 表示第 n 个样本的第 k 个输出的真实标签(通常为 0 或 1)。
- 表示模型对第 n 个样本的第 k 个输出预测为正类的概率。
交叉熵误 差的目标在于最小化预测概率与真实标签之间的不一致性。当预测概率接近真实标签时,交叉熵损失较低;当预测概率远离真实标签时,损失值较高。该损失函数非常适合于处理概率输出,可以确保反馈的信息能够有效地更新模型参数。
计算示例
假设在一个二分类问题中,我们有三个样本及其真实标签和预测概率如下:
样本 | 真实标签 | 预测概率 |
---|---|---|
1 | 1 | 0.9 |
2 | 0 | 0.2 |
3 | 1 | 0.4 |
计算交叉熵误差:
-
对于样本 1:
-
对于样本 2:
-
对于样本 3:
总损失 为:
在多分类任务中,交叉熵误差
计算的是对应正确解概率输出的自然对数,如式 4 所示。
因为 中只有正确解索引位的值为 1,其他均为 0,式 4 实际只计算了对应正确解神经元输出的自然对数。
以上文给定手写数字识别任务的预测输出 与正式输出 y 的示例为例,即推理结果 相对实际结果 y 的交叉熵误差
为:
代码实现
均方误差的 Python 代码实现如下:
import numpy as np
def cross_entropy_error(y, t):
"""
交叉熵误差函数
Args:
y: 神经网络的输出
t: 监督数据
Returns:
float: 交叉熵误差
"""
# 监督数据是 one-hot-vector 的情况下,转换为正确解标签的索引
if t.size == y.size:
t = t.argmax(axis=1)
batch_size = y.shape[0]
return -np.sum(np.log(y[np.arange(batch_size), t] + 1e-7)) / batch_size
# 示例数据
y_true = np.array([[0, 0, 1, 0, 0, 0, 0, 0, 0, 0], [
1, 0, 0, 0, 0, 0, 0, 0, 0, 0]]) # 真实值
y_pred = np.array([[0.1, 0.05, 0.6, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0], [
0.5, 0.05, 0.2, 0.0, 0.05, 0.1, 0.0, 0.1, 0.0, 0.0]]) # 预测值
# 计算并输出均方误差
loss = cross_entropy_error(y_pred, y_true)
print("Cross Entropy Loss:", loss)
# Cross Entropy Loss: 0.6019862188296516
交叉熵误差
是一种重要的损失函数,主要用于分类问题,评估类别的概率分布,常用于二分类和多分类任务。比如在分类任务中,交叉熵误差能够有效量化实际分布与预测分布之间的差异,并驱动模型参数朝着最小化预测与真实标签之间不一致的方向更新,因此在深度学习和机器学习领域得到了广泛应用。
绝对误差
绝对误差
(Mean Absolute Error
, MAE
)是指预测值与实际值之间差异的平均绝对值。其计算公式如下式 5:
其中, 表示第 n 个预测值, 表示第 n 个实际值, 是样本的总数。
绝对误差通过计算预测值与实际值之间的绝对差值来衡量误差。与均方误差不同,绝对误差没有平方运算,因此对异常值的敏感性较低。
计算示例
我们可以用一个简单的例子来说明 MAE 的计算。
假设我们有三组预测值和实际值如下:
- 预测值:
- 实际值:
首先计算每个样本的绝对误差:
然后,将这些绝对误差求和,并求其平均值:
代码实现
绝对误差的 Python 代码实现如下:
import numpy as np
def mean_absolute_error(y_true, y_pred):
"""
计算绝对误差(Mean Absolute Error, MAE)
Args:
y_true : np.array,真实值的数组
y_pred : np.array,预测值的数组
Returns:
float: 计算得到的绝对误差(MAE)
"""
# 计算绝对误差
absolute_errors = np.abs(y_true - y_pred) # 计算每个样本的绝对误差
mae = np.mean(absolute_errors) # 计算平均绝对误差
return mae
# 示例数据
y_true = np.array([3.0, -0.5, 2.0]) # 真实值
y_pred = np.array([2.5, 0.0, 2.1]) # 预测值
# 计算并输出绝对误差
mae = mean_absolute_error(y_true, y_pred)
print("Mean Absolute Error (MAE):", mae)
# Mean Absolute Error (MAE): 0.3666666666666667
绝对误差常用于回归问题,衡量预测值与实际值之间的平均绝对差。由于绝对误差对异常值的影响较小,因此在某些应用中比均方误差更为稳健。特别是在目标是最小化预测值与实际值之间误差的情况下,MAE 是一个常用的评价指标。
Hinge Loss
Hinge Loss
是一种主要用于支持向量机(SVM)和某些神经网络模型的损失函数,尤其是在二分类问题中。它旨在最大化类之间的间隔(margin),并通过对分类正确但距离决策边界不够远的样本施加惩罚来优化学习过程。
其定义公式如下式 6:
其中:
- 是总损失。
- 是样本数量。
- 是样本的真实标签,通常取值为 或 。
- 是模型对样本的预测值(即类别的未缩放输出)。
当样本被正确分类,并且预测结果与真实标签之间的距离大于 1 时,损失为 0。如果样本被错误分类,或者正确分类但距离决策边界小于 1,则会产生正的损失。
计算示例
假设我们有三个样本及其真实标签和模型预测值如下:
样本 | 真实标签 | 预测值 |
---|---|---|
1 | +1 | 0.8 |
2 | -1 | -0.6 |
3 | +1 | 1.2 |
计算 Hinge Loss:
-
对于样本 1:
-
对于样本 2:
-
对于样本 3:
总损失 为:
代码实现
import numpy as np
def hinge_loss(y_true, y_pred):
"""
计算 Hinge Loss
参数:
y_true: np.array,真实类别标签(-1 或 1)
y_pred: np.array,预测值(可以是与真实值相同的分类数值)
返回:
float: 计算得到的 Hinge Loss
"""
# 确保 y_true 值为 -1 或 1
assert np.all(np.isin(y_true, [-1, 1])), "y_true must contain only -1 or 1"
# 计算 Hinge Loss
losses = np.maximum(0, 1 - y_true * y_pred) # Hinge Loss
return np.mean(losses) # 计算平均 Hinge Loss
# 示例数据
y_true = np.array([1, -1, 1]) # 真实标签
y_pred = np.array([0.8, -0.6, 1.2]) # 预测值
# 计算并输出 Hinge Loss
loss = hinge_loss(y_true, y_pred)
print("Hinge Loss:", loss)
# Hinge Loss: 0.19999999999999998
Hinge Loss
通常用于分类任务,特别是在支持向量机中,能够有效地处理分类边界。当使用此损失函数时,目标是使 Hinge Loss 变小,从而提升模型对分类的能力。由于它关注于决策边界的距离,因此在处理不平衡数据或存在异常值的情况下表现良好,适合处理对分类精度要求较高的任务。
Kullback-Leibler Divergence
Kullback-Leibler Divergence
(KL Divergence
)是一种衡量两个概率分布之间差异的非对称度量。它通常用于信息论、统计学习和机器学习中,尤其是在模型评估、生成模型、变分推断等场景下。
其定义公式如下:
其中:
- 表示从分布 到分布 的 Kullback-Leibler 散度。
- 和 分别表示概率分布 和 中事件 的概率。
KL 散度度量的是使用分布 来近似分布 时所需的额外信息量(或熵)。越小的 KL 散度表示 越接近 。KL 散度总是非负的:,这是由 Gibbs 不等式保证的。KL 散度是非对称的,即 ,这使得它不符合距离的性质。
- 信息量度量:KL 散度可以被视为从 中取样时,关于 最优编码的额外成本。
- 模型训练:在许多生成模型(如变分自编码器)中,KL 散度用于量化模型的近似分布与真实分布之间的差异。
- 分类问题:在多分类任务中,KL 散度可以用来衡量预测的概率分布与真实标签的概率分布(通常是 one-hot encoding)之间的区别。
计算示例
假设有两个离散概率分布 和 :
我们可以计算 KL 散度:
代入值:
计算:
合并结果:
代码实现
import numpy as np
def kl_divergence(p, q):
"""
计算 Kullback-Leibler Divergence (KL Divergence)
Args:
p : np.array,源分布的概率值(必须为非负且总和为 1)
q : np.array,目标分布的概率值(必须为非负且总和为 1)
Returns:
float: 计算得到的 KL Divergence
"""
# 确保输入分布为概率分布(非负且总和为 1)
assert np.all(p >= 0) and np.isclose(np.sum(p), 1), "p must be a valid probability distribution."
assert np.all(q >= 0) and np.isclose(np.sum(q), 1), "q must be a valid probability distribution."
# 计算 KL Divergence
# 使用 np.where 来避免对 q 中为 0 的值进行 log 计算
divergence = np.sum(np.where(p != 0, p * np.log(p / q), 0)) # 对于 p=0 的项不计算
return divergence
# 示例数据
p = np.array([0.4, 0.6]) # 源分布
q = np.array([0.5, 0.5]) # 目标分布
# 计算并输出 KL Divergence
kl = kl_divergence(p, q)
print("Kullback-Leibler Divergence (KL Divergence):", kl)
# Kullback-Leibler Divergence (KL Divergence): 0.020135513550688863
Kullback-Leibler Divergence
是一种重要的统计量,帮助我们量化两个概率分布之间的差异,常用于机器 学习和信息论领域。在许多模型训练过程中,它被用作损失函数,以确保模型输出尽量接近真实分布。
结语
损失函数(loss function)是表示神经网络性能“恶劣程度”的指标,即当前神经网络对监督数据有多么不拟合,多么不一致。
在神经网络模型中,损失函数的选择往往直接影响网络的收敛性和性能。均方误差、交叉熵误差、绝对误差、Kullback-Leibler Divergence 和 Hinge Loss 等损失函数都具有实际价值,选择何种损失函数通常取决于特定问题的需求、目标以及数据的特征。
PS:感谢每一位志同道合者的阅读,欢迎关注、点赞、评论!