当前位置:网站首页>论文笔记: 多标签学习 LSML

论文笔记: 多标签学习 LSML

2022-06-23 04:34:00 闵帆

摘要: 分享对论文的理解. 原文见 Huang, J., Qin, F., Zheng, X., Cheng, Z.-K., Yuan, Z.-X., Zhang, W.-G., & Huang, Q.-M. (2019). Improving multi-label classification with missing labels by learning label-specific features. Information Sciences, 492, 124–146.

1. 论文贡献

  • 在 LIFT 的基础上, 考虑了标签相关性 (张星移正在担忧的事情). 大胆地使用了一个标签相关性矩阵.
    However, label correlation among class labels is neglected when selecting the features for each class label independently.
  • 考虑了缺失标签. 但我到现在都没弄清楚他是怎么考虑的.

2. 基本符号

符号含义说明
X ∈ R n × m \mathbf{X} \in \mathbb{R}^{n \times m} XRn×m属性矩阵
Y ∈ { 0 , 1 } n × l \mathbf{Y} \in \{0, 1\}^{n \times l} Y{ 0,1}n×l标签矩阵
W ∈ R m × l \mathbf{W} \in \mathbb{R}^{m \times l} WRm×l系数矩阵仍然是线性模型
w i ∈ R m \mathbf{w}_i \in \mathbb{R}^m wiRm某一标签的系数向量
C ∈ R l × l \mathbf{C} \in \mathbb{R}^{l \times l} CRl×l标签相关性矩阵成对相关性, 不满足对称性

y i j = 0 y_{ij} = 0 yij=0 表示第 i i i 个对象没有第 j j j 个标签, 或者标签缺失. 这在实际应用中很常见, 标注者很多时候只告诉你有哪些, 而不会说没有哪些标签.

3. 算法

基本优化目标为:
min ⁡ W 1 2 ∥ X W − Y ∥ + λ 3 ∥ W ∥ 1 (1) \min_{\mathbf{W}} \frac{1}{2} \|\mathbf{XW} - \mathbf{Y}\| + \lambda_3 \|\mathbf{W}\|_1 \tag{1} Wmin21XWY+λ3W1(1)

  • 使用 λ 3 \lambda_3 λ3 而不是 λ \lambda λ, 是为了与后面的式子保持一致;
  • 用 1-范数做正则项, 确实可以控制 W \mathbf{W} W 的系数, 这个与 PML-NI 的思路一样, 但后者本意是用 0-范数.
  • 这里并没有使用 LIFT 为每个标签构建新属性集合的方式, 称其为 “label-specific features”, 感觉草率了些.

考虑标签相关性矩阵 C \mathbf{C} C 的优化目标为:
min ⁡ W , C 1 2 ∥ X W − Y C ∥ F 2 + λ 1 2 ∥ Y C − Y ∥ F 2 + λ 2 ∥ C ∥ 1 + λ 3 ∥ W ∥ 1 (2) \min_{\mathbf{W}, \mathbf{C}} \frac{1}{2} \|\mathbf{XW} - \mathbf{YC}\|_F^2 + \frac{\lambda_1}{2}\|\mathbf{YC} - \mathbf{Y}\|_F^2 + \lambda_2 \|\mathbf{C}\|_1 + \lambda_3 \|\mathbf{W}\|_1 \tag{2} W,Cmin21XWYCF2+2λ1YCYF2+λ2C1+λ3W1(2)

  • 这里的 C \mathbf{C} C 也是优化算法需要求的矩阵, 并非从其它方式计算而来.
  • 难道作者认为 Y C \mathbf{YC} YC 就是恢复后的标签矩阵? 这样的话, 预测的时候就只需要使用 x W \mathbf{xW} xW 而不考虑 C \mathbf{C} C 了. 需要进一步读论文印证.

进一步考虑: 如果两个标签相关性大, 那么产生它们的权值向量距离就应该小. 由此获得优化目标:
min ⁡ W , C 1 2 ∥ X W − Y C ∥ F 2 + λ 1 2 ∥ Y C − Y ∥ F 2 + λ 2 ∥ C ∥ 1 + λ 3 ∥ W ∥ 1 + λ 4 ∑ 1 ≤ i , j ≤ l c i j ∥ w i − w j ∥ (3) \min_{\mathbf{W}, \mathbf{C}} \frac{1}{2} \|\mathbf{XW} - \mathbf{YC}\|_F^2 + \frac{\lambda_1}{2}\|\mathbf{YC} - \mathbf{Y}\|_F^2 + \lambda_2 \|\mathbf{C}\|_1 + \lambda_3 \|\mathbf{W}\|_1 + \lambda_4 \sum_{1 \leq i, j \leq l} c_{ij}\|\mathbf{w}_i - \mathbf{w}_j\|\tag{3} W,Cmin21XWYCF2+2λ1YCYF2+λ2C1+λ3W1+λ41i,jlcijwiwj(3)

  • 最后一项的双竖线在这里表示欧氏距离.
  • 为使得最后一项小, 当 c i j c_{ij} cij 大的时候, ∥ w i − w j ∥ \|\mathbf{w}_i - \mathbf{w}_j\| wiwj 就应该小.
  • 为了优化, 最后一项会变为
    λ 4 t r ( W L W T ) \lambda_4 tr(\mathbf{WLW}^{\mathrm{T}}) λ4tr(WLWT)
    其中, L \mathbf{L} L C \mathbf{C} C 的图 Laplacian 矩阵.

4. 小结

  • 想要体现什么因素, 就加一个正则项. 有合理解释, 以及更好效果就行.
  • 但从我们的实验看来, 这个算法的效果很一般. 当然, 效果与数据集、参数设置这些都很有关.
原网站

版权声明
本文为[闵帆]所创,转载请带上原文链接,感谢
https://blog.csdn.net/minfanphd/article/details/125416210