前序课程:集成方法 提升方法:将弱的可学习算法提升为强的可学习算法。其中提升方法是集成学习中的一种。 AdaBoost算法 准确的来说Adaboost是boosting的其中一种方法。采用了exponential loss function(其实就是用指数的权重)。 AdaBoost是 …
拉格朗日乘子法(等式约束)
[title]拉格朗日乘子法要解决什么问题[/title] 我们以二维空间为例,简单介绍下拉格朗日乘子法解决的问题。 解决的问题:在$h(x)=x_{1}^2+x_{2}^2-2=0$函数的约束下(即上图红色的圆柱)上找到某一点使得f(x)函数(蓝色平面)值取得最小值。我们称h(x)为限制条件。 & …
梯度上升法通俗的理解 – 以一个一元二次函数为例
多元函数的梯度上升我们可能不好理解,二元函数的梯度函数是一个曲面,我们现在用最简单的一个一元二次函数: $f(x) = -x^2+3x+1$ 函数图像: 使用高中方法计算最大值 先对原函数求导:$f(x)’ = -2x+3$,另 -2x+3=0,解出x = 1.5。即在x=1.5处取得极 …