13 Matching Annotations
  1. Jan 2025
    1. RHEL cx RAIA he RE ART RE

      AdaBoost中基学习器的权重是通过最小化指数损失函数得到的,指数损失函数替代了原本的0/1损失函数,可以证明二者的优化目标是一致的,并且指数损失函数有更好的数学性质,是连续可微函数

    2. 56M 8a Vil BSE UI Be PE ah, FR GEA Od 8 A ABT UI BsEAS SS A EAT Vad RE, EFSTE BT BEA DS BB BCE BN UII ARE AS FE JS ESB) PE,SR SET VE PEAS Op ARI RR SES SE; QUST, BRS“J aeay BABS ETRE AE TT,

      boosting工作机制

    3. EA MPR: AE o, PURER P(c | x) *TU c, OMEN e “ALARA” (discriminative models); th A 7KMRD P(a,c) #K, REBAR P(c| a), RRB “EmoteAi” (generative models).

      先验概率:也是一种条件概率,以全事件为背景的某个事件发生的概率。是基于历史数据的统计或者背景常识得出的预判概率<br /> 后验概率:是知道结果的情况下求原因的概率,例如事件B是由A引起的,P(A|B)就是后验概率

    4. ARA “HE

      当满足kkt约束条件时,拉格朗日函数最大化的结果等价于主问题。如果不满足约束条件,则最大化的结果可以是正无穷。考虑拉格朗日函数的极小极大化问题,与原始优化问题等价。

    5. ZBL a*, FARBER UBBRE Vf (w*) IESE FOR HH.

      对于约束曲面上的点,如果它的梯度正交方向的向量与目标函数的梯度方向夹钝角,则不是最优点,沿着梯度正交方向前进一小步,可以使目标函数更小。在最优点,目标函数在该点的梯度应该与在约束曲面的梯度共线

    6. MEAGRE LAUR REAR @, AEBRRE Vo(a) IESE E

      可以用一阶泰勒展开证明,沿着与梯度垂直的方向前进能保证点依然在等高线上,即仍然满足约束条件

    7. Hy X.(2.37), RAR AO.

      $$ \mathbb{E}_D [\bar{f}(x)] = \bar{f}(x) $$ $$ \mathbb{E}_D [f(x; D)] = \bar{f}(x) $$ $$ \begin{split} \mathbb{E}_D [2(f(x; D) - \bar{f}(x))(\bar{f}(x) - y_D)] &= 2\mathbb{E}_D[(f(x; D) - \bar{f}(x))\bar{f}(x) ] - 2\mathbb{E}_D[(f(x; D) - \bar{f}(x))y_D] \ &= 0 - 0 \ &= 0 \end{split} $$

    Annotators