adaboost提升算法

引言

俗话说得好,三个臭皮匠赛过诸葛亮。更主要的是三个臭皮匠好找,一个诸葛亮太难找了。在机器学习里面也是一样的。我们可以设计出各种分类器,然而分类器的效果确实不一而同的,相对而言,效果较差的分类器比效果很好的分类器更好设计,后者很多时候可遇而不可求。那么是否有什么方法能够将一系列的弱分类器组合,使其能够提示分类效果呢?这就是机器学习里面的提升学习。而且后来Schapire证明强可学习与弱可学习是等价的,这个就很完美了,这样我们就有了理论指导,通过一系列的弱学习算法可以提升为强学习算法,adaboost就是最重要的一个例子。

提升算法的思想

提升算法通过提高前面分类错误的样本的权重,是后面的分类器更加关注这些错误样本的分类,进而能够分而治之,使分类器重点关注不同的样本。

adaboost算法

下面我们先来介绍adaboost算法,后面再对算法做推导解释。(猜想adaboost算法应该是先提出的算法,后续才找个合理的解释。)

输入

  • 训练数据集
  • 弱学习算法

算法过程

  • 初始化训练数据的权值分布为其中
  • 进行迭代训练,即对
    • 使用权重为的训练数据训练学习器
    • 计算上的训练误差率
    • 计算的系数
    • 更新训练集的权重 其中,其中 是规范化因子,即
  • 构建分类器的线性组合
  • 得到最终的分类器为

输出

  • 最终的分类器

算法很简单也很好理解,同时很好用,而且效果确实很好,这就够了。

本质上讲权重在出影响了分类器的选择,进而影响了数据分布,在这里将去权重间接的引入到了数据集中,影响了训练数据的分布。在一些书中说通过改变权重影响训练数据集的分布,其实就是这个意思,并不是真的修改了数据集的分布,而是通过误差率选择了分类效果最好的学习器,使分类器能够偏向去正确分类之前错误分类的数据。

过拟合

有了算法,那么还有一个问题,就是算法的过拟合问题。adaboost有很强的抗过拟合能力,然而很遗憾的是,针对adaboost问题的抗过拟合原因,至今没有一个比较完美的解释,虽然大牛们做了很多工作,但是依旧还是有很大的困难。一种猜想是通过多种分类器的组合,天然的引入了多样性,使算法不易过拟合。

算法解释

上面我们提出了算法,这里我们尝试利用数学推导来解释一下为什么adaboost这样设计是合理的。

对于adaboost可以理解为算法模型为加法模型,损失函数为指数函数,学习算法为前向分步算法时的二分类学习算法

给定加法模型,损失函数为,则问题转化为最小化损失函数,即

对于这个公式,基本上没有办法直接求得解析解,因此我们可以利用前向分步算法来近似求解。

前向分步算法

前向分步算法的思想就是每次只优化一个基函数机器系数,逐步逼近目标,最后得到目标的近似值。

  • 初始化
    • 极小化损失函数
    • 更新
  • 得到加法模型

adaboost算法解释

由前文,adaboost算法的分类器如下:

根据数学归纳法,假设轮,根据前向分步算法,已经得到:

目标:得到使得在训练集上的指数损失最小。

前一项跟最小化无关,

因此

则最小的为:

对于,有:

进行求导,有:

可以得到

有:

${\alpha_m}$ 的更新与adaboost算法的的更新形式一致,因此adaboost可以看做是算法模型为加法模型,损失函数为指数函数,学习算法为前向分步算法时的二分类学习算法

显示 Gitment 评论