✏️
LiHang-TongJiXueXiFangFa
  • Introduction
  • 第2章 感知机 - 原始形式
    • 学习策略的推导
    • 梯度下降法的算法过程
    • 梯度下降法的推导过程
    • 梯度下降法的收敛证明
  • 第2章 感知机 - 对偶形式
    • 学习模型的推导
    • 梯度下降法的算法过程
    • 梯度下降法的推导过程
  • 第3章 k近邻算法
    • 模型三要素
    • 构造平衡kd树
    • 用kd树的k近邻搜索
    • kd树的原理与改进
  • 第4章 朴素贝叶斯
    • 模型公式的推导
    • 策略公式的推导
    • 最大似然估计算法过程
    • 贝叶斯估计算法过程
  • 第5章 决策树
    • 决策树的模型
    • 信息增益的算法
    • ID3决策树的生成算法
    • C4.5决策树的生成算法
    • 决策树的剪枝算法
  • 第5章 CART决策树
    • CART树的生成
    • CART树的剪枝
  • 第6章 逻辑回归
    • 二分类逻辑回归模型
    • 多分类逻辑回归模型
  • 第6章 最大熵模型
    • 最大熵的原理
    • 最大熵模型的定义
    • 最大熵的学习过程
    • 根据最大熵的学习过程推导最大熵模型
    • 证明:对偶函数的极大化=模型的极大似然估计
  • 第6章 目标函数最优化问题
    • 改进的迭代尺度法(IIS)
    • IIS算法公式(1)推导
    • A和B的推导
    • 拟牛顿法
  • 第7章 支持向量机
    • 函数间隔与几何间隔
  • 第7章 线性可分SVM
    • 凸二次规划问题推导
    • 支持向量
    • 凸二次规划问题求解
    • 原始问题转换为对偶最优化问题
  • 第7章 线性SVM
    • 原始问题转换为对偶最优化问题
    • 根据 a 求 w 和 b*
    • 支持向量
  • 第7章 非线性SVM
    • 核函数与核技巧
    • 核技巧在SVM中的应用
    • 7.3.2 正定核
    • 常用的核函数
  • 第7章 序列最小最优化算法
    • 选择变量
    • 推导1
    • 推导2
    • 推导3
    • 推导4
    • 推导5:update b
  • 第8章 adaboost
    • 算法过程
    • 训练误差分析
    • 加法模型
    • 前向分步算法
    • adaboost一种特殊的加法模型
  • 第8章 提升树
    • 回归问题提升树的推导
    • 回归问题提升树前向分步算法
    • 一般决策问题梯度提升算法
  • 第9章 EM算法
    • 算法过程
    • Q函数的推导
    • 关于算法的收敛性
    • 高斯混合模型参数估计的EM算法
    • Q函数推导
    • 推导2
  • 第10章 隐马尔可夫模型
    • 定义
    • 概率计算问题 - 直接计算法
    • 概率计算问题 - 前向算法
    • 概率计算问题 - 后向算法
    • 学习问题 - 监督学习
    • 学习问题 - 非监督学习
    • Baum - Welch算法推导
    • 推导1
    • 预测问题 - 近似算法
    • 预测问题 - 维特比算法
    • 维特比算法推导过程
  • 第11章 条件随机场
    • 概率无向图模型
  • 遗留问题
Powered by GitBook
On this page

Was this helpful?

  1. 第8章 adaboost

训练误差分析

adaboost的训练误差为:

ERR=分类错误的样本数总样本数=∑i=1NI(G(xi)≠yi)NERR = \frac{\text{分类错误的样本数}}{\text{总样本数}} = \frac{\sum_{i=1}^NI(G(x_i) \neq y_i)}{N}ERR=总样本数分类错误的样本数​=N∑i=1N​I(G(xi​)=yi​)​

adaboost算法最终分类器的误差界为:

ERR=1N∑i=1NI(G(xi)≠yi)1≤1N∑i=1Nexp⁡(−yif(xi))2=∏mZm3=∏m=1M(2em(1−em))4=∏m=1M(21−4γm2)5≤exp⁡(−2∑m=1Mγm2)6\begin{aligned} ERR = \frac{1}{N}\sum_{i=1}^NI(G(x_i) \neq y_i) &&{1} \le \frac{1}{N}\sum_{i=1}^N\exp(-y_if(x_i)) &&{2} = \prod_mZ_m &&{3} = \prod_{m=1}^M(2\sqrt {e_m(1-e_m)}) &&{4} = \prod_{m=1}^M(2\sqrt {1-4\gamma_m^2}) &&{5} \le \exp(-2\sum_{m=1}^M\gamma_m^2) &&{6} \end{aligned}ERR=N1​i=1∑N​I(G(xi​)=yi​)​​1≤N1​i=1∑N​exp(−yi​f(xi​))​​2=m∏​Zm​​​3=m=1∏M​(2em​(1−em​)​)​​4=m=1∏M​(21−4γm2​​)​​5≤exp(−2m=1∑M​γm2​)​​6​

说明: (1):ERR的定义 (2):

I(G(xi)≠yi)=I(G(xi)≠yi)+0I(G(x_i) \neq y_i) = I(G(x_i) \neq y_i) + 0I(G(xi​)=yi​)=I(G(xi​)=yi​)+0

当G(xi)≠yiG(x_i) \neq y_iG(xi​)=yi​时,

yif(xi)<0⇒exp⁡(−yif(xi))>1=I(G(xi)≠yi)y_if(x_i)\lt 0 \Rightarrow \exp(-y_if(x_i))\gt 1 = I(G(x_i) \neq y_i)yi​f(xi​)<0⇒exp(−yi​f(xi​))>1=I(G(xi​)=yi​)

当G(xi)=yiG(x_i) = y_iG(xi​)=yi​时,

yif(xi)>0⇒exp⁡(−yif(xi))>1=I(G(xi)≠yi)>0y_if(x_i)\gt 0 \Rightarrow \exp(-y_if(x_i))\gt 1 = I(G(x_i) \neq y_i) \gt 0yi​f(xi​)>0⇒exp(−yi​f(xi​))>1=I(G(xi​)=yi​)>0

等式得证 (3):

1N∑iNexp⁡(−yif(xi))=1N∑iNexp⁡(−∑mMamyiGm(xi)),公式6=∑iw1i∑iNexp⁡(−∑mMamyiGm(xi)),公式1=Z1∑iw2i∑2Nexp⁡(−∑mMamyiGm(xi)),公式8.4=∏m=1MZm\begin{aligned} \frac{1}{N}\sum_{i}^N\exp(-y_if(x_i)) \\ = \frac{1}{N}\sum_{i}^N\exp(-\sum_{m}^Ma_my_iG_m(x_i)), \text {公式6} \\ = \sum_i w_{1i}\sum_{i}^N\exp(-\sum_{m}^Ma_my_iG_m(x_i)), \text {公式1} \\ = Z_1\sum_i w_{2i}\sum_{2}^N\exp(-\sum_{m}^Ma_my_iG_m(x_i)), \text {公式8.4} \\ = \prod_{m=1}^MZ_m \end{aligned}N1​i∑N​exp(−yi​f(xi​))=N1​i∑N​exp(−m∑M​am​yi​Gm​(xi​)),公式6=i∑​w1i​i∑N​exp(−m∑M​am​yi​Gm​(xi​)),公式1=Z1​i∑​w2i​2∑N​exp(−m∑M​am​yi​Gm​(xi​)),公式8.4=m=1∏M​Zm​​

(4):

Zm=∑i=1Nwmiexp⁡(−amyiGm(xi))=∑yi=Gm(xi)wmie−am+∑yi≠Gm(xi)wmieam,yiGm(xi)代表对样本i是否分类正确=(1−em)exp⁡(−am)+emexp⁡(am),公式3=(1−em)em1−em+(em)1−emem,t公式4=2(1−em)em\begin{aligned} Z_m = \sum_{i=1}^Nw_{mi}\exp (-a_my_iG_m(x_i)) \\ = \sum_{y_i=G_m(x_i)}w_{mi}e^{-a_m} + \sum_{y_i\neq G_m(x_i)}w_{mi}e^{a_m}, y_iG_m(x_i)\text{代表对样本i是否分类正确} \\ = (1-e_m)\exp(-a_m) + e_m\exp(a_m), \text{公式3} \\ = (1-e_m)\sqrt{\frac{e_m}{1-e_m}} + (e_m)\sqrt{\frac{1-e_m}{e_m}}, t\text{公式4} \\ = 2\sqrt{(1-e_m)e_m} \end{aligned}Zm​=i=1∑N​wmi​exp(−am​yi​Gm​(xi​))=yi​=Gm​(xi​)∑​wmi​e−am​+yi​=Gm​(xi​)∑​wmi​eam​,yi​Gm​(xi​)代表对样本i是否分类正确=(1−em​)exp(−am​)+em​exp(am​),公式3=(1−em​)1−em​em​​​+(em​)em​1−em​​​,t公式4=2(1−em​)em​​​

(5):令γ=12−em\gamma = \frac{1}{2}-e_mγ=21​−em​ (6):【?】泰勒公式

Previous算法过程Next加法模型

Last updated 5 years ago

Was this helpful?