論文の概要: Reliable Few-shot Learning under Dual Noises
- arxiv url: http://arxiv.org/abs/2506.16330v1
- Date: Thu, 19 Jun 2025 14:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.103224
- Title: Reliable Few-shot Learning under Dual Noises
- Title(参考訳): デュアルノイズ下での信頼度向上
- Authors: Ji Zhang, Jingkuan Song, Lianli Gao, Nicu Sebe, Heng Tao Shen,
- Abstract要約: そこで我々はDETA++(Denoized Task Adaptation)を提案する。
DETA++はメモリバンクを使用して、各インナータスククラスのクリーンなリージョンを格納し、精製する。
大規模な実験は、DETA++の有効性と柔軟性を示している。
- 参考スコア(独自算出の注目度): 166.53173694689693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in model pre-training give rise to task adaptation-based few-shot learning (FSL), where the goal is to adapt a pre-trained task-agnostic model for capturing task-specific knowledge with a few-labeled support samples of the target task.Nevertheless, existing approaches may still fail in the open world due to the inevitable in-distribution (ID) and out-of-distribution (OOD) noise from both support and query samples of the target task. With limited support samples available, i) the adverse effect of the dual noises can be severely amplified during task adaptation, and ii) the adapted model can produce unreliable predictions on query samples in the presence of the dual noises. In this work, we propose DEnoised Task Adaptation (DETA++) for reliable FSL. DETA++ uses a Contrastive Relevance Aggregation (CoRA) module to calculate image and region weights for support samples, based on which a clean prototype loss and a noise entropy maximization loss are proposed to achieve noise-robust task adaptation. Additionally,DETA++ employs a memory bank to store and refine clean regions for each inner-task class, based on which a Local Nearest Centroid Classifier (LocalNCC) is devised to yield noise-robust predictions on query samples. Moreover, DETA++ utilizes an Intra-class Region Swapping (IntraSwap) strategy to rectify ID class prototypes during task adaptation, enhancing the model's robustness to the dual noises. Extensive experiments demonstrate the effectiveness and flexibility of DETA++.
- Abstract(参考訳): モデル事前学習の最近の進歩は、タスク適応に基づく小ショットラーニング(FSL)に発展し、目標タスクの少数のラベル付きサポートサンプルを用いてタスク固有の知識を捕捉するための訓練済みタスク非依存モデルを適用することが目標となっているが、それでも既存のアプローチは、必然的分散(ID)や、目標タスクのサポートとクエリの両方からのアウト・オブ・ディストリビューション(OOD)ノイズにより、オープン世界では失敗する可能性がある。
サポートサンプルは限られている。
一 二重雑音の悪影響がタスク適応時に著しく増幅しうること。
二 適応モデルは、二重雑音の存在下で、クエリーサンプルに対して信頼性の低い予測をすることができる。
本研究では,信頼性の高いFSLのためのDETA++を提案する。
DETA++は、Contrastive Relevance Aggregation (CoRA)モジュールを使用して、クリーンなプロトタイプ損失とノイズエントロピー最大化損失が提案され、ノイズロバストなタスク適応を実現する。
さらに、DETA++はメモリバンクを使用して、各インナータスククラスのクリーンなリージョンを格納し、洗練する。
さらに、DETA++は、クラス内領域スワッピング(IntraSwap)戦略を使用して、タスク適応中にIDクラスのプロトタイプを修正し、モデルの二重ノイズに対する堅牢性を高める。
大規模な実験は、DETA++の有効性と柔軟性を示している。
関連論文リスト
- ElimPCL: Eliminating Noise Accumulation with Progressive Curriculum Labeling for Source-Free Domain Adaptation [12.088386261002762]
Source-Free Domain Adaptation (SFDA)は、ソースデータなしでターゲットモデルをトレーニングすることを目的としており、キーは擬似ラベルを生成することである。
情報源モデルは、ハードサンプル、特にドメインシフトに大きく影響されたサンプルに対して、非常に不確実な擬似ラベルを生成することが多いことを観察する。
本稿では,信頼に値する疑似ラベル付きサンプルを反復的にフィルタリングする新しいプログレッシブ・キュリキュラム・ラベリング法を提案する。
広範囲にわたる実験により、ElimPCLの有効性が検証され、課題に対して最大3.4%の改善が達成された。
論文 参考訳(メタデータ) (2025-03-31T04:28:27Z) - One-step Noisy Label Mitigation [86.57572253460125]
ノイズラベルのトレーニング過程に対する有害な影響の軽減がますます重要になっている。
モデルに依存しないノイズラベル緩和パラダイムである1ステップアンチノイズ(OSA)を提案する。
我々はOSAの優位性を実証的に実証し、トレーニングの堅牢性の向上、タスク転送性の向上、デプロイメントの容易性、計算コストの削減を強調した。
論文 参考訳(メタデータ) (2024-10-02T18:42:56Z) - Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - DETA: Denoised Task Adaptation for Few-Shot Learning [135.96805271128645]
数ショット学習におけるテスト時間タスク適応は、訓練済みのタスク非依存モデルに適応してタスク固有の知識を取得することを目的としている。
少数のサンプルしか得られないため、支持試料からのイメージノイズ(Xノイズ)またはラベルノイズ(Yノイズ)の悪影響を著しく増幅することができる。
Denoized Task Adaptation (DETA) は、既存のタスク適応アプローチに対して、最初に統合された画像とラベルをデノベートするフレームワークである。
論文 参考訳(メタデータ) (2023-03-11T05:23:20Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。