論文の概要: Variational Rectification Inference for Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2603.17255v1
- Date: Wed, 18 Mar 2026 01:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.468996
- Title: Variational Rectification Inference for Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いた学習のための変分予測
- Authors: Haoliang Sun, Qi Wei, Lei Feng, Yupeng Hu, Fan Liu, Hehe Fan, Yilong Yin,
- Abstract要約: 損失関数の適応的補正を定式化するために, 変分補正推論(VRI)を提案する。
VRIは、補正ベクトルを潜在変数として扱うことによって階層ベイズとして構成される。
VRIで変分項を導入することにより、条件付き後部を正確に推定し、ディラックデルタ関数への崩壊を避ける。
- 参考スコア(独自算出の注目度): 74.85528327499662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label noise has been broadly observed in real-world datasets. To mitigate the negative impact of overfitting to label noise for deep models, effective strategies (\textit{e.g.}, re-weighting, or loss rectification) have been broadly applied in prevailing approaches, which have been generally learned under the meta-learning scenario. Despite the robustness of noise achieved by the probabilistic meta-learning models, they usually suffer from model collapse that degenerates generalization performance. In this paper, we propose variational rectification inference (VRI) to formulate the adaptive rectification for loss functions as an amortized variational inference problem and derive the evidence lower bound under the meta-learning framework. Specifically, VRI is constructed as a hierarchical Bayes by treating the rectifying vector as a latent variable, which can rectify the loss of the noisy sample with the extra randomness regularization and is, therefore, more robust to label noise. To achieve the inference of the rectifying vector, we approximate its conditional posterior with an amortization meta-network. By introducing the variational term in VRI, the conditional posterior is estimated accurately and avoids collapsing to a Dirac delta function, which can significantly improve the generalization performance. The elaborated meta-network and prior network adhere to the smoothness assumption, enabling the generation of reliable rectification vectors. Given a set of clean meta-data, VRI can be efficiently meta-learned within the bi-level optimization programming. Besides, theoretical analysis guarantees that the meta-network can be efficiently learned with our algorithm. Comprehensive comparison experiments and analyses validate its effectiveness for robust learning with noisy labels, particularly in the presence of open-set noise.
- Abstract(参考訳): ラベルノイズは実世界のデータセットで広く観測されている。
ディープモデルに対するラベルノイズに対するオーバーフィッティングの負の影響を軽減するため、メタスタディのシナリオで一般的に学習されている一般的なアプローチにおいて、効果的な戦略(\textit{e g }、再重み付け、損失修正)が広く適用されている。
確率的メタラーニングモデルによって達成される雑音の頑健さにもかかわらず、それらは一般に一般化性能を低下させるモデル崩壊に悩まされる。
本稿では,損失関数の適応的正当性補正を,アモートされた変分推論問題として定式化し,メタラーニングフレームワークの下限の証拠を導出するために,変分正当性推論(VRI)を提案する。
特に、VRIは、正規化ベクトルを潜在変数として扱うことで階層的ベイズとして構成され、ノイズを余分なランダム性正規化で補正することができるため、ラベルノイズに対してより堅牢である。
補正ベクトルを推定するために, 条件付き後部とアモータイズメタネットワークを近似した。
変分項をVRIに導入することにより、条件付き後部を正確に推定し、ディラックデルタ関数への崩壊を回避し、一般化性能を著しく向上させることができる。
精巧なメタネットワークと事前ネットワークはスムーズな仮定に固執し、信頼性の高い修正ベクトルの生成を可能にする。
クリーンなメタデータセットを与えられたVRIは、双方向最適化プログラム内で効率的にメタ学習することができる。
さらに, 理論的解析により, メタネットワークを効率的に学習できることが保証された。
総合的な比較実験と分析は、特にオープンセットノイズの存在下で、ノイズラベルを用いた頑健な学習の有効性を検証する。
関連論文リスト
- Matrix Sensing with Kernel Optimal Loss: Robustness and Optimization Landscape [10.674539579679871]
従来の回帰タスクでは、平均二乗誤差(MSE)損失は一般的な選択であるが、ガウス的でないノイズや重み付きノイズは信頼できない。
我々は,残差密度のカーネルベース推定に基づくロバストな損失定式化を採用し,その推定対数類似度を最大化する。
論文 参考訳(メタデータ) (2025-11-03T23:22:37Z) - Semi-Supervised Regression with Heteroscedastic Pseudo-Labels [50.54050677867914]
両レベル最適化の観点から,疑似ラベルの影響を動的に調整する不確実性認識型擬似ラベル化フレームワークを提案する。
我々は、様々なベンチマークSSRデータセットにまたがって、我々のアプローチを検証するための理論的洞察と広範な実験を提供する。
論文 参考訳(メタデータ) (2025-10-17T03:06:23Z) - Machine Unlearning for Robust DNNs: Attribution-Guided Partitioning and Neuron Pruning in Noisy Environments [5.8166742412657895]
ディープニューラルネットワーク(DNN)は、さまざまなドメインで顕著な成功を収めているが、ノイズやトレーニングデータによってそのパフォーマンスが著しく低下する可能性がある。
本稿では,帰属誘導型データパーティショニング,識別的ニューロンプルーニング,およびノイズのあるサンプルの影響を軽減するための微調整を目的とした新しいフレームワークを提案する。
CIFAR-10の標準リトレーニングよりも約10%の絶対精度向上を実現し,ラベルノイズを注入した。
論文 参考訳(メタデータ) (2025-06-13T09:37:11Z) - Robust Learning under Hybrid Noise [24.36707245704713]
本稿では,データリカバリの観点からハイブリッドノイズに対処するため,新たな統合学習フレームワーク"Feature and Label Recovery"(FLR)を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:13:25Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Learning to Rectify for Robust Learning with Noisy Labels [25.149277009932423]
分類ネットワークのトレーニング手順を適応的に修正するためのワープ確率推論(WarPI)を提案する。
雑音ラベルによる頑健な学習の4つのベンチマークでWarPIを評価し, 異種雑音下での新たな最先端の学習を実現する。
論文 参考訳(メタデータ) (2021-11-08T02:25:50Z) - Learning Noise Transition Matrix from Only Noisy Labels via Total
Variation Regularization [88.91872713134342]
本稿では,雑音遷移行列を推定し,同時に分類器を学習する理論的基礎付け手法を提案する。
提案手法の有効性を,ベンチマークおよび実世界のデータセットを用いた実験により示す。
論文 参考訳(メタデータ) (2021-02-04T05:09:18Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。