softmax函数
Softmax 函数 是一种常用的激活函数,广泛应用于机器学习和深度学习中,尤其是在多分类问题的输出层。它能将一个含任意实数的向量转化为另一个向量,其中每个元素的值都在 (0,1) 区间内,并且所有元素之和为 1。这使得它非常适合表示概率分布。
数学表达式:
给定一个向量 ,Softmax 函数定义如下:
Softmax 示例
假设我们有一个输出向量:
计算其 Softmax:
- 计算指数:
- 求和:
- 归一化:
最终输出:
代码示例(Python)
1 | import numpy as np |
输出可能为:
1 | [0.65900114 0.24196469 0.09903417] |
极大似然估计
极大似然估计(MLE) 是一种常用的参数估计方法。其核心思想是:
在已知观测数据的前提下,找出最有可能产生这些数据的模型参数值。
换句话说,MLE 回答的问题是:
“哪一组参数最可能生成我们观察到的数据?”
基本概念
- 设有一个概率模型,其参数为
- 给定一组观测数据
- 我们的目标是:找到使
最大的参数
其中:
称为似然函数(Likelihood Function)
- MLE 就是在所有可能的
中,最大化这个似然函数的过程:
数学推导步骤
步骤 1:写出似然函数
假设样本独立同分布(i.i.d.),则联合概率为乘积:
为了方便计算,通常取对数(因为 log 是单调递增函数):
步骤 2:最大化对数似然函数
通过求导并令导数为零,解出最优 :
或者使用数值优化方法(如梯度上升)来求解。
举例说明
示例 1:伯努利分布中的参数估计(抛硬币)
假设你抛了 10 次硬币,得到的结果是:
其中 1 表示正面,0 表示反面。设正面出现的概率为 。
1. 写出似然函数:
2. 取对数:
3. 对
求导并令导数为 0:
解得:
✅ 所以根据极大似然估计,这枚硬币正面朝上的概率为 0.7。
示例 2:高斯分布的均值估计
假设我们从一个正态分布中抽取了样本 ,我们要估计均值
。
1. 似然函数:
2. 对数似然函数:
忽略常数项后,只需最大化:
最小化平方误差 ⇒ 得到:
✅ 所以高斯分布的均值 MLE 就是样本均值。
MLE 的性质与优缺点
| 特性 | 描述 |
|---|---|
| 一致性 | 当样本量增大时,MLE 估计值会收敛于真实参数值 |
| 渐近无偏性 | 样本足够多时,MLE 估计值趋于无偏 |
| 渐近正态性 | MLE 估计值在大样本下服从正态分布 |
| 计算复杂性 | 对某些复杂模型难以解析求解,需要数值方法 |
| 对异常值敏感 | 若数据中有异常点,可能会导致估计偏差 |
交叉熵损失
交叉熵损失(Cross-Entropy Loss) 是机器学习中用于衡量两个概率分布之间差异的指标,常用于分类任务中。它在逻辑回归、神经网络分类器中被广泛使用,尤其是在输出层使用 Softmax 函数 后。
基本思想:
给定一个真实标签的概率分布 和模型预测的概率分布
,交叉熵衡量的是使用
来编码数据时的信息量(或者说“代价”)。值越小,说明预测越接近真实。
交叉熵的数学定义
信息论角度:
对于离散随机变量,交叉熵定义为:
其中:
:真实分布(通常是 one-hot 编码)
:模型预测的概率分布
分类任务中的交叉熵损失函数
场景一:多分类任务(Softmax + Cross-Entropy)
这是最常见的情形,例如图像分类问题。
输入:
- 真实标签:one-hot 向量
- 预测输出:Softmax 输出的概率分布
损失函数公式:
因为 是 one-hot 向量,只有一个位置是 1,其余是 0,所以也可以简化为:
其中 是真实类别的索引。
示例:
- 真实类别是第 2 类(one-hot: [0, 1, 0])
- 模型预测概率为:[0.2, 0.7, 0.1]
则交叉熵损失为:
场景二:二分类任务(Sigmoid + Binary Cross-Entropy)
适用于输出是两个类别的任务,如判断是否是猫。
损失函数公式:
其中:
:真实标签
:模型预测的概率(通常通过 Sigmoid 得到)
交叉熵与极大似然估计(MLE)的关系
交叉熵损失本质上是 负对数似然函数(Negative Log-Likelihood, NLL) 的推广。
我们希望最大化似然函数:
取对数后变为:
为了最小化损失,我们取负号:
这就是交叉熵损失的形式!
✅ 所以可以说:
最小化交叉熵损失 ≈ 最大化似然函数 ≈ 极大似然估计
Python 实现交叉熵损失
1 | import numpy as np |
输出:
1 | Cross-Entropy Loss: 0.3566749439387324 |
交叉熵是怎么来的
交叉熵(Cross-Entropy)的定义公式来源于信息论中的 香农信息论(Shannon Information Theory),它的提出是为了衡量两个概率分布之间的差异,特别是在编码理论和机器学习中被广泛使用。
下面我将从 信息量、熵、KL散度 的角度出发,一步步推导出 交叉熵的定义公式,并解释它为什么是这个形式。
信息量(Information Content)
在信息论中,一个事件的信息量与它的发生概率成反比:
- 概率越小的事件,其发生时携带的信息越多。
- 比如抛硬币出现“连续10次正面”的信息量就远大于“一次正反交替”。
信息熵(Shannon Entropy)
信息熵是对一个随机变量所有可能取值的平均信息量:
简称“熵”,表示系统的不确定性。熵越大,系统越不确定;熵越小,越确定。
KL 散度(Kullback–Leibler Divergence)
KL 散度用于衡量两个概率分布 和
之间的差异:
也可以写成:
其中:
:真实分布的信息熵
:
与
的交叉熵(见下文)
KL 散度具有以下性质:
- 非对称性:
- 始终 ≥ 0,当且仅当
时等于 0
交叉熵(Cross-Entropy)
根据 KL 散度的定义:
于是我们定义交叉熵为:
✅ 所以,交叉熵的本质是:
在使用模型预测分布
来编码真实分布
时所需的平均比特数(信息量)。
它包含了两部分:
- 真实分布本身的熵
- 使用
编码带来的额外代价(即 KL 散度)
在分类任务中应用交叉熵
在机器学习中,尤其是分类问题中,我们通常有:
- 真实标签
是 one-hot 向量(例如
[0, 1, 0]) - 模型输出的概率分布
(例如通过 Softmax 得到)
所以交叉熵损失函数为:
由于 one-hot 编码只有一个位置是 1,其余为 0,所以可以简化为:
其中 是真实类别对应的索引。
KL散度
非常好的问题!KL 散度(Kullback–Leibler Divergence)的定义形式:
这个公式看起来有些“神秘”,但其实它有着非常深刻的 信息论背景 和 统计意义。下面我们从多个角度来解释:
KL 散度的本质:衡量两个分布之间的差异
KL 散度是用来衡量两个概率分布 和
之间的“距离”的,但它不是真正的距离(不满足对称性、三角不等式)。它的核心思想是:
当我们用一个不准确的分布
去近似真实分布
时,会带来多少额外的信息成本?
从编码理论的角度理解 KL 散度
在信息论中,我们希望用尽可能少的比特数来编码数据。
- 如果我们知道数据的真实分布是
,我们可以使用最优编码长度为:
- 如果我们不知道真实分布,而是假设它是
,那么我们使用的编码长度是:
那么平均来看,我们多用了多少比特?
这就是 KL 散度的含义:
✅ 所以,KL 散度就是使用错误分布 编码带来的平均额外比特数。
从极大似然估计(MLE)和交叉熵的角度理解
我们再回顾一下:
- 真实分布
- 模型预测分布
KL 散度可以写成:
其中:
是真实分布的信息熵
是交叉熵
所以,最小化 KL 散度等价于最小化交叉熵,也等价于最大化似然函数(MLE)。
✅ KL 散度的定义本质上是为了让我们能定量地比较模型输出与真实分布之间的差距。
为什么是
这个形式?
我们来看看这个比值的含义:
| 情况 | 含义 | 对 KL 的影响 |
|---|---|---|
| 真实事件 |
导致 KL 很大(代价高) | |
| 模型高估了一个不太可能发生的事 | KL 也会增大 | |
| 分布一致 | KL = 0 |
而选择 对数形式 是因为:
- 可加性:独立事件的信息量可以相加(符合香农信息论)
- 单调性:当
,KL → 0
- 数学性质良好:便于求导、优化等操作
🔄 五、KL 散度 vs 交叉熵 vs 信息熵
这三个概念密切相关:
:真实分布的信息熵(不可减少)
:使用
来表示
所需的信息量
:多出来的那部分信息量(即误差)
KL 散度的局限性
| 局限性 | 解释 |
|---|---|
| 不对称性 | |
| 不满足三角不等式 | 不是严格意义上的“距离” |
| 对零点敏感 | 若 |
因此,在某些情况下我们会使用:
- JS 散度(Jensen-Shannon Divergence)——对称且有界
- Wasserstein 距离(Earth Mover’s Distance)——更适用于连续分布