2 Matching Annotations
  1. Feb 2025
    1. LADER = LC E + λt · LK D , λt = λbase√|It −1 ||It | · |Et −1 ||Dt

      ●当旧项目数量(|It−1|)相对于新项目数量(|It|)较多时,说明旧知识的重要性提高,此时 λt 会增大。 ●当旧示例集大小(|Et−1|)相对于当前新数据量(|Dt|)较大时,也说明需要更多依赖旧知识的约束,λt 同样会增大。

    2. xk ← arg minx∈ Py ∥μ − 1k [φ(x) + Ík −1j=1 φ(xj )]∥

      首先,对某个项目 y 的所有样本(来自 Dt ∪ Et−1)提取特征 ϕ(x),并计算它们的平均特征向量 µ 迭代选择:接下来,针对项目 y,需要选择 m_y 个示例。每一次迭代中,从 Py 中选出一个样本,使得当前已选择的示例与 µ 的平均距离最小。具体来说,在第 k 次迭代,选择的样本 x_k 满足:这一步的式子 这一步的意思是:在考虑之前已经选出的样本的基础上,选取新的样本,使得加入这个样本后,所有选出样本的平均特征更接近总体均值 µ。

      构建示例集合:重复以上步骤直到为项目 y 选择出 m_y 个示例,然后将这些示例以 (x, y) 的形式构成集合 Ey。