算法过程
Last updated
Last updated
算法8.1 AdaBoost
输入: 训练数据集T={X, y},X为N个包含n个特征的样本,y取值为-1或1 弱学习算法 输出: 最终分类器G(x)
将训练数据的权值分布初始化为均匀分布 代表第m个弱分类器的第i个样本的权重。 则:
根据权重得到第m个弱分类器:
计算弱分类器的加权误分类率,这个误分类率也是带权重计算的。
计算,代表第m个分类器的重要性:
其中,log以e为底 误分类率越小,这个弱分类器越有发言权。
更新第m+1个弱分类器中每个样本的权重
然后使成为一个分布,即满足 公式8.4我觉得不对,分母不应该是,而应该是,而又依赖于的结果,所以要分成两步计算。 代表对样本i是否分类正确。
回到第2步,生成第m+1个弱分类器。
生成m个弱分类器后,组成一个强分类器