論文の概要: Variation-Bounded Loss for Noise-Tolerant Learning
- arxiv url: http://arxiv.org/abs/2511.12143v1
- Date: Sat, 15 Nov 2025 10:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.637548
- Title: Variation-Bounded Loss for Noise-Tolerant Learning
- Title(参考訳): 雑音耐性学習のための変動境界損失
- Authors: Jialiang Wang, Xiong Zhou, Xianming Liu, Gangfeng Hu, Deming Zhai, Junjun Jiang, Haoliang Li,
- Abstract要約: 本稿では,損失関数のロバスト性に関連する新しい特性として,変分比を導入する。
本稿では,有界変動比を特徴とする,ロバストな損失関数である変分境界損失(VBL)を新たに提案する。
- 参考スコア(独自算出の注目度): 105.20373602308284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mitigating the negative impact of noisy labels has been aperennial issue in supervised learning. Robust loss functions have emerged as a prevalent solution to this problem. In this work, we introduce the Variation Ratio as a novel property related to the robustness of loss functions, and propose a new family of robust loss functions, termed Variation-Bounded Loss (VBL), which is characterized by a bounded variation ratio. We provide theoretical analyses of the variation ratio, proving that a smaller variation ratio would lead to better robustness. Furthermore, we reveal that the variation ratio provides a feasible method to relax the symmetric condition and offers a more concise path to achieve the asymmetric condition. Based on the variation ratio, we reformulate several commonly used loss functions into a variation-bounded form for practical applications. Positive experiments on various datasets exhibit the effectiveness and flexibility of our approach.
- Abstract(参考訳): ノイズラベルの負の影響を緩和することは、教師あり学習における長年の問題である。
この問題の一般的な解決策として、ロバスト損失関数が出現している。
本研究では,損失関数のロバスト性に関連する新しい特性として変分比を導入し,有界変動比を特徴とする,ロバストな損失関数の族である変分境界損失(VBL)を提案する。
変動比を理論的に解析し、より小さい変動比がより堅牢性をもたらすことを証明した。
さらに, 変動比は対称条件を緩和する実現可能な方法であり, 非対称条件を達成するためのより簡潔な経路を提供することを明らかにした。
変動率に基づいて、我々はいくつかのよく使われる損失関数を変分有界形式に再構成し、実用化する。
様々なデータセットに対する肯定的な実験は、我々のアプローチの有効性と柔軟性を示している。
関連論文リスト
- Closing the Performance Gap in Biometric Cryptosystems: A Deeper Analysis on Unlinkable Fuzzy Vaults [3.092212810857262]
可変特徴量の大きさと類似度閾値に対する影響によって生じる不安定な誤り訂正能力を同定する。
等間隔の反復に基づく特徴量化手法を提案する。
提案手法はテンプレート保護によって生じる性能ギャップを著しく低減する。
論文 参考訳(メタデータ) (2025-06-27T15:57:58Z) - Risk-Averse Reinforcement Learning with Itakura-Saito Loss [63.620958078179356]
リスク回避エージェントはリスクを最小限に抑えるポリシーを選択し、時には期待される価値を犠牲にする。
状態値と行動値の関数を学習するために,板倉-斎藤偏差に基づく数値的に安定かつ数学的に損失関数を導入する。
実験セクションでは、既知の解析解を含む複数のシナリオを探索し、その損失関数が代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:18:07Z) - Conditional Temporal Neural Processes with Covariance Loss [19.805881561847492]
本稿では,条件付きニューラルプロセスと概念的に等価な新しい損失関数Covariance Lossを紹介する。
我々は、最先端のモデルを用いた実世界のデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2025-04-01T13:51:44Z) - STATE: A Robust ATE Estimator of Heavy-Tailed Metrics for Variance Reduction in Online Controlled Experiments [22.32661807469984]
我々は、学生のt分布と機械学習ツールを統合して、ヘビーテールのメトリクスに適合する新しいフレームワークを開発する。
ログ類似度関数を最適化するために変分EM法を採用することにより、アウトリアの負の影響を大幅に排除するロバストな解を推測できる。
Meituan実験プラットフォーム上での合成データと長期実験結果のシミュレーションにより,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-07-23T09:35:59Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Convergence analysis of equilibrium methods for inverse problems [2.812291464467386]
ここでは、ある正規化作用素 (R) に対して (A*(A x - ydelta) + α R(x) = 0) の解として近似解が定義される。
正規化作用素が函数の勾配であるとき、INVは古典的変分正規化に還元される。
論文 参考訳(メタデータ) (2023-06-02T10:22:33Z) - Correcting Confounding via Random Selection of Background Variables [15.206717158865022]
本稿では,Y 上の X の回帰係数の安定性に基づいて因果関係を同定するための新しい基準を提案する。
我々は、背景の影響に対する対称性の仮定の下で、V が 0 に収束することは X が因果因子を含まない場合に限り証明する。
論文 参考訳(メタデータ) (2022-02-04T14:27:10Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。