CVPR 2022|U2PL:使用不可靠伪标签的半监督语义分割
本文转自商汤学术
导读
半监督任务的关键在于充分利用无标签数据,商汤科技联合上海交通大学、香港中文大学,基于「 Every Pixel Matters」的理念,有效利用了包括不可靠样本在内的全部无标签数据,大幅提升了算法精度。目前 U2PL 已被 CVPR 2022 接收,相关代码已开源,有任何问题欢迎在 GitHub 提出。
论文标题:Semi-Supervised Semantic Segmentation Using Unreliable Pseudo-Labels
01
Self-training: 样本筛选导致训练不充分
半监督学习的核心问题在于有效利用无标注样本,作为有标签样本的补充,以提升模型性能。
经典的 self-training 方法大多遵循着 supervised learning → pseudo labeling → re-training 的基本流程,但学生网络会从不正确的伪标签中学习到错误的信息,因而存在 performance degradation 的问题。
常规作法是通过样本筛选的方式只留下高置信度预测结果,但这会将大量的无标签数据排除在训练过程外,导致模型训练不充分。此外,如果模型不能较好地预测某些 hard class,那么就很难为该类别的无标签像素分配准确的伪标签,从而进入恶性循环。
我们认为「 Every Pixel Matters」,即使是低质量伪标签也应当被合理利用,过往的方法并没有充分挖掘它们的价值。
02
Motivation: Every Pixel Matters
具体来说,预测结果的可靠与否,我们可以通过熵 (per-pixel entropy) 来衡量,低熵表示预测结果可靠,高熵表示预测结果不可靠。我们通过 Figure 2 来观察一个具体的例子,Figure 2(a) 是一张蒙有 entropy map 的无标签图片,高熵的不可靠像素很难被打上一个确定的伪标签,因此不参与到 re-training 过程,在 Figure 2(b) 中我们以白色表示。
因而,我们想到即使是不可靠的预测结果,虽然无法打上确定的伪标签,但仍可以作为部分类别的负样本,从而参与到模型的训练,从而让所有的无标签样本都能在训练过程中发挥作用。
03
Method
● Overview
04
Comparison with Existing Alternatives
本文所有的实验结果均是基于 ResNet-101 + Deeplab v3+ 的网络结构完成的,所采用的的数据集构成和评估方式请参见论文描述。我们在 Classic VOC, Blender VOC, Cityscapes 三种数据集上均和现存方法进行了对比,在全部两个 PASCAL VOC 数据集上我们均取得了最佳精度。在 Cityscapes 数据集上,由于我们没能很好地解决长尾问题,落后于致力解决类别不平衡问题的 AEL (NeurIPS'21)[3],但我们将 U2PL 叠加在 AEL 上能够取得超越 AEL 的精度,也侧面证明了 U2PL 的通用性。值得一提的是,U2PL 在有标签数据较少的划分下,精度表现尤为优异。
05
Ablation Studies
● Effectiveness of Using Unreliable Pseudo-Labels
我们在 PSACAL VOC 和 CItyscapes 等多个数据集的多个划分上验证了使用不可靠伪标签的价值。● Alternative of Contrastive Learning
06
附录
● U2PL 与 negative learning 的区别这里需要着重强调下我们的工作和 negative learning 的区别, negative learning 选用的负样本依旧是高置信度的可靠样本[4],相比之下,我们则提倡充分利用不可靠样本而不是把它们过滤掉。比如说预测结果 由于其不确定性会被 negative learning 方法丢弃,但在 U2PL 中却可以被作为多个 unlikely class 的负样本,实验结果也发现 negative learning 方法的精度不如 U2PL。● U2PL 技术蓝图这里贴出技术蓝图,便于大家更好地理解论文的核心 story 和实验设计:
U2PL 技术蓝图
传送门
U2PL 的相关代码目前已经开源,欢迎各位同学使用和交流。
论文地址
https://haochen-wang409.github.io/U2PL/resources/U2PL_CVPR_2022.pdf
项目地址
https://haochen-wang409.github.io/U2PL/
代码地址
https://github.com/Haochen-Wang409/U2PL
References
[1] Bootstrapping Semantic Segmentation with Regional Contrast https://arxiv.org/abs/2104.04465
[2] Representation Learning with Contrastive Predictive Coding https://arxiv.org/abs/1807.03748
[3] Semi-Supervised Semantic Segmentation via Adaptive Equalization Learning https://arxiv.org/abs/2110.05474
[4] In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label Selection Framework for Semi-Supervised Learning https://openreview.net/pdf/c979bcaed90f2b14dbf27b5e90fdbb74407f161b.pdf
本文仅做学术分享,如有侵权,请联系删文。
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。