发布于: 2023-6-28最后更新: 2024-8-18字数 00 分钟

type
status
date
slug
summary
tags
category
icon
password
文章来源说明

🤔 摘要

在有噪标签的情况下训练深度神经网络(DNN)是具有挑战性的,因为DNN很容易记住不准确的标签,导致泛化能力差。最近,基于元学习的标签纠正策略被广泛采用来解决这个问题,通过使用一小部分干净的验证数据来识别和纠正潜在的噪声标签。虽然使用纯化后的标签可以有效提高性能,但解决元学习问题必然涉及到模型权重和超参数(即标签分布)之间的双层优化的嵌套循环。因此,先前的方法采用交替更新的耦合学习过程。在本文中,我们经验性地发现,在模型权重和标签分布之间同时进行优化不能实现最优的常规过程,从而限制了骨干网络的表示能力和纠正标签的准确性。基于此观察,我们提出了一种新的多阶段标签纯化器DMLP。DMLP将标签纠正过程分解为无标签表示学习和简单的元标签纯化器。这样,DMLP可以集中精力提取有区分度的特征和在两个不同阶段纠正标签。DMLP是一个即插即用的标签纯化器,纯化后的标签可以直接在朴素的端到端网络重新训练或其他鲁棒学习方法中复用,在几个合成和真实的有噪数据集上取得了最先进的结果,特别是在高噪声水平下。
 

📝引言

深度学习在各种识别任务上取得了显著进展。其成功的关键在于具有可靠注释的大规模数据集的可用性。然而,收集此类数据集耗时且昂贵。获取带有标签数据的简便方式,如网络爬虫,不可避免地会产生带有噪声标签的样本,这对于直接用于训练DNN来说是不合适的,因为这些复杂模型容易记住噪声标签。针对这个问题,提出了许多带有噪声标签的学习方法。经典的学习带噪声标签(LNL)方法着重于识别噪声样本并通过丢弃[12]或分配较小的重要性来减少其对参数更新的影响。然而,当涉及到非常嘈杂和复杂的场景时,这种方案很难应对,因为没有足够的干净数据来训练一个有区分性的分类器。因此,提出了标签纠正方法,通过将噪声标签修正为潜在的正确标签来增加干净的训练样本。其中,基于元学习的方法通过利用一个小的干净验证集并且将噪声标签作为超参数,为清洁样本的潜在标签分布提供指导,实现了最先进的性能。
然而,这种元净化不可避免地涉及到模型权重和超参数的嵌套双层优化问题(如图1(a)所示),这在计算上是不可行的。为了妥协,采用模型权重和超参数之间的交替更新来优化目标[9,16,25],从而得到了表示学习和标签净化的耦合解决方案。
图1. (a) 传统的交替更新方法用于解决元标签净化问题,以及 (b) 提出的DMLP方法,将标签净化过程分解为表示学习和简单的非嵌套元标签净化器。
图1. (a) 传统的交替更新方法用于解决元标签净化问题,以及 (b) 提出的DMLP方法,将标签净化过程分解为表示学习和简单的非嵌套元标签净化器。
实证观察。直观地说,对大搜索空间(模型权重和超参数)的交替优化可能导致次优解。为了研究这种近似对鲁棒学习结果的影响,我们对CIFAR-10 [14]中的最新标签净化方法MLC [40]和MSLC [9]进行了实证分析。这些方法包括一个深度模型和一个元标签纠正网络,我们观察结果如图2所示。
图2. (a) 在CIFAR-10上,在50%和90%的对称标签噪声下,比较了耦合[40]和分离的标签修正方案的纠正标签准确性,以及 (b) 表示学习的线性探测准确性。(c) 探讨了表示学习对从头开始训练的 'Ori' - 原始耦合网络训练、'SimCLR-Coupled' - 强化自监督预训练权重初始化以及 'SimCLR-Decoupled' - 在标签净化期间进一步固定预训练主干网络的效果。
图2. (a) 在CIFAR-10上,在50%和90%的对称标签噪声下,比较了耦合[40]和分离的标签修正方案的纠正标签准确性,以及 (b) 表示学习的线性探测准确性。(c) 探讨了表示学习对从头开始训练的 'Ori' - 原始耦合网络训练、'SimCLR-Coupled' - 强化自监督预训练权重初始化以及 'SimCLR-Decoupled' - 在标签净化期间进一步固定预训练主干网络的效果。
  • 耦合优化阻碍了纠正标签的质量。我们首先比较了耦合元纠正器MLC与其极端解耦变体的性能,其中模型权重首先根据带有噪声标签的数据进行了70个周期的优化,然后使用验证集的指导进行标签净化。我们采用纠正标签的准确率来衡量净化的性能。从图2(a)可以清楚地看到,与解耦的对应物相比,联合优化产生了较差的纠正性能,并且这些错误纠正将反过来影响耦合优化中的表示学习。• 耦合优化阻碍了表示能力。我们通过评估提取特征的线性概率准确率[6]来研究表示质量,结果如图2(b)所示。我们发现,耦合训练的表示质量在开始时要差得多,这导致后期的表示学习缓慢且不稳定。为了进一步研究对表示学习的影响,我们还利用了具有自监督学习[5]的预训练骨干作为初始化,最近的研究[39]表明预训练表示对LNL框架非常有帮助。然而,我们发现这个结论不严格适用于耦合元标签纠正器。如图2(c)所示,通过比较MLC / MSLC的分类器的分类准确率,我们观察到如果模型权重仍然与超参数耦合在一起,预训练模型只能带来边际改进。相反,当骨干的权重与标签净化和分类器解耦时,改进变得更加显著。解耦的元净化。通过上述观察,我们发现元纠正器模型权重和超参数的解耦对于标签准确性和最终结果是必要的。因此,在本文中,我们的目标是将元标签净化从表示学习中分离出来,设计一个更适合标签分布问题优化的简单的元标签净化器,比现有的复杂的元网络[9, 40]更友好。因此,我们提出了一种通用的分阶段标签修正策略,称为解耦的元标签净化器(DMLP)。DMLP的核心是基于元学习的标签净化器,然而,为了避免解决耦合解的双层优化问题,DMLP将此过程分解为自监督表示学习和一个线性元学习器来拟合底层正确标签分布(如图1(b)所示),从而简化了标签净化阶段为单层优化问题。简单的元学习器被精心设计为两个相互增强的校正过程,分别称为内在主要校正(IPC)和外在辅助校正(EAC)。IPC在整体上以稳定的速度纯化标签,而EAC通过利用来自IPC的更新标签来加速净化过程。这两个过程可以增强彼此的能力,形成一个标签纠正的正向循环。我们的DMLP框架可以灵活应用,纯净化的标签可以直接应用于简单的端到端网络重新训练,或者用于提升现有LNL框架的性能。在包括合成(CIFAR的噪声版本)和真实世界(Clothing1M)数据集在内的主流基准上进行了大量实验证明了DMLP的优越性。简而言之,本文的主要贡献包括:• 我们分析了对于鲁棒学习中标签纠正来说解耦优化的必要性,基于此我们提出了DMLP,一种灵活且创新的多阶段标签净化器,以解耦的方式解决了双层元学习问题,包括表示学习和非嵌套元标签纠正;• 在DMLP中,我们提出了一种新颖的非嵌套元标签纠正器,配备了两个纠正器,IPC和EAC。IPC是全局和稳定的纠正器,而EAC通过训练来自IPC的更新标签来加速纠正过程。这两个过程形成了一个正向训练循环,以学习更准确的标签分布;• 使用DMLP从纯化的标签训练的深度模型在各种类型和水平的标签噪声下,在几个合成和真实世界的噪声数据集上取得了最先进的结果,特别是在高噪声水平下。我们进行了大量的消融研究来验证其有效性。

🤗 方法

分解解决元标签纯化问题

为了方便起见,首先对DMLP中的符号进行澄清。
嘈杂的训练数据集被表示为,其中是第i个实例的图像和受损标签,是类别数。类似地,一个小型干净的验证数据集被表示为。N表示数据集大小,。下标t和v表示数据来自训练集或验证集。
典型的基于元学习的纯化需要通过下述目标求解模型权重和超参数的双层优化问题:
其中分别表示模型权重和元超参数。在经典的标签纯化流程中,被重新参数化为噪声标签分布的函数,即分别是不同数据集上的损失函数。由于两个损失项都不是解析的,并且涉及复杂的DNN前向传播,解决嵌套优化目标在计算上是昂贵的。同时,交替的一步近似 [9, 25] 无法保证优化方向是最优的,因为涉及耦合更新。相比之下,为了避免在网络参数w的大搜索空间上进行耦合优化,我们将DMLP中的元学习目标重新定义为:
其中,预训练的特征提取器 被设计用于提取维度为 d 的图像表示 f。为了获得高质量的表示,这些提取到的特征被应用在对比自监督学习框架 [5, 6] 中,以无噪声标签的方式更新参数 进行预训练。随后,建立的特征提取器可以学习对图像数据无关的描述符,这些描述符在高维特征空间中也具有高度的可分离性 [37]。通过这种方式,我们将表示学习与噪声标签修正分离开来,同时保持特征的强分离性。
此外,由于特征具有代表性和可分离性,损失项 可以使用简单的风险估计函数(例如线性判别)来构建,而不需要复杂的深度神经网络前向传播,这使得能够以非嵌套的方式使用解析解来解决方程(2)的问题,这将在第3.2节中介绍。

非嵌套元标签净化器

在解决Eq. (2)的净化问题时,我们提出了两种互相加强的解决方案,以寻求净化的训练标签,如图3所示,即内在主要校正(IPC)和外在辅助校正(EAC)过程。内在主要校正(IPC)旨在以缓慢而稳定的速度进行全局标签净化。

参考文章

 
 
致谢:
💡
有关Notion安装或者使用上的问题,欢迎您在底部评论区留言,一起交流~
 
 

Loading...
Learning from binary labels with instance-dependent noise

🗒️Learning from binary labels with instance-dependent noise

刷题记录——双指针

🗒️刷题记录——双指针