論文の概要: Noise-Adaptive Regularization for Robust Multi-Label Remote Sensing Image Classification
- arxiv url: http://arxiv.org/abs/2601.08446v1
- Date: Tue, 13 Jan 2026 11:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.166481
- Title: Noise-Adaptive Regularization for Robust Multi-Label Remote Sensing Image Classification
- Title(参考訳): ロバストなマルチラベルリモートセンシング画像分類のための雑音適応正規化
- Authors: Tom Burgert, Julia Henkel, Begüm Demir,
- Abstract要約: 付加音と減音音を区別する雑音適応正規化法であるNARを提案する。
NARは、既存の方法と比較して、一貫して堅牢性を改善する。
性能改善は、減音と混合ノイズの下で最も顕著である。
- 参考スコア(独自算出の注目度): 5.658568324275769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of reliable methods for multi-label classification (MLC) has become a prominent research direction in remote sensing (RS). As the scale of RS data continues to expand, annotation procedures increasingly rely on thematic products or crowdsourced procedures to reduce the cost of manual annotation. While cost-effective, these strategies often introduce multi-label noise in the form of partially incorrect annotations. In MLC, label noise arises as additive noise, subtractive noise, or a combination of both in the form of mixed noise. Previous work has largely overlooked this distinction and commonly treats noisy annotations as supervised signals, lacking mechanisms that explicitly adapt learning behavior to different noise types. To address this limitation, we propose NAR, a noise-adaptive regularization method that explicitly distinguishes between additive and subtractive noise within a semi-supervised learning framework. NAR employs a confidence-based label handling mechanism that dynamically retains label entries with high confidence, temporarily deactivates entries with moderate confidence, and corrects low confidence entries via flipping. This selective attenuation of supervision is integrated with early-learning regularization (ELR) to stabilize training and mitigate overfitting to corrupted labels. Experiments across additive, subtractive, and mixed noise scenarios demonstrate that NAR consistently improves robustness compared with existing methods. Performance improvements are most pronounced under subtractive and mixed noise, indicating that adaptive suppression and selective correction of noisy supervision provide an effective strategy for noise robust learning in RS MLC.
- Abstract(参考訳): マルチラベル分類(MLC)のための信頼性の高い手法の開発は、リモートセンシング(RS)において顕著な研究方向となっている。
RSデータの規模が拡大するにつれて、アノテーションの手順は、手作業によるアノテーションのコストを削減するために、テーマの製品やクラウドソースの手順にますます依存している。
費用対効果はあるものの、これらの戦略は部分的に不正確なアノテーションという形でマルチラベルノイズを導入することが多い。
MLCでは、ラベルノイズは付加ノイズ、減音ノイズ、または混合ノイズの形での組み合わせとして生じる。
従来の研究は、この区別をほとんど見落としており、一般的にはノイズアノテーションを教師付き信号として扱い、学習行動を異なるノイズタイプに明示的に適応させるメカニズムを欠いている。
この制限に対処するため,半教師付き学習フレームワークにおける付加雑音と減音雑音を明確に区別する雑音適応正規化手法であるNARを提案する。
NARは、ラベルエントリを高い信頼性で動的に保持する信頼性ベースのラベルハンドリング機構を採用し、一時的に適度な信頼でエントリを非活性化し、フリップによって低信頼のエントリを修正する。
この選択的監督の減衰は、早期学習規則化(ELR)と統合され、トレーニングを安定させ、破損したラベルへの過度な適合を緩和する。
付加的、減算的、混合ノイズシナリオによる実験は、NARが既存の手法と比較して常にロバスト性を改善することを示す。
雑音の適応的抑制と雑音の選択的補正は、RS MLCにおける雑音頑健学習に有効な戦略であることを示す。
関連論文リスト
- Test-time Adaptive Hierarchical Co-enhanced Denoising Network for Reliable Multimodal Classification [55.56234913868664]
マルチモーダルデータを用いた信頼性学習のためのTAHCD(Test-time Adaptive Hierarchical Co-enhanced Denoising Network)を提案する。
提案手法は,最先端の信頼性の高いマルチモーダル学習手法と比較して,優れた分類性能,堅牢性,一般化を実現する。
論文 参考訳(メタデータ) (2026-01-12T03:14:12Z) - How Does Label Noise Gradient Descent Improve Generalization in the Low SNR Regime? [78.0226274470175]
我々は、勾配更新にラベルノイズを導入することで、ニューラルネットワーク(NN)のテスト性能が向上するかどうか検討する。
学習中のラベルノイズの付加は,学習過程を支配することを防止し,雑音の記憶を抑制することを実証する。
対照的に、標準GDで訓練されたNNは、同じ低SNR環境でのノイズに過度に適応する傾向にある。
論文 参考訳(メタデータ) (2025-10-20T13:28:13Z) - Mitigating the Noise Shift for Denoising Generative Models via Noise Awareness Guidance [54.88271057438763]
ノイズアウェアネスガイダンス (NAG) は、事前に定義された騒音スケジュールと整合性を保つために、サンプリング軌道を明示的に制御する補正手法である。
NAGは一貫してノイズシフトを緩和し、主流拡散モデルの生成品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-10-14T13:31:34Z) - Mitigating Instance-Dependent Label Noise: Integrating Self-Supervised Pretraining with Pseudo-Label Refinement [3.272177633069322]
実世界のデータセットは、アノテーションプロセス中にヒューマンエラー、あいまいさ、リソース制約のために、ノイズの多いラベルを含むことが多い。
そこで本研究では,SimCLRを用いた自己教師型学習と反復的擬似ラベル改良を組み合わせた新しいフレームワークを提案する。
提案手法は,特に高騒音条件下では,いくつかの最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-12-06T09:56:49Z) - Disentangled Noisy Correspondence Learning [56.06801962154915]
クロスモーダル検索は、モダリティ間の潜在対応を理解する上で重要である。
DisNCLはノイズ対応学習における特徴分散のための新しい情報理論フレームワークである。
論文 参考訳(メタデータ) (2024-08-10T09:49:55Z) - Trusted Multi-view Learning under Noisy Supervision [20.668620759102115]
本稿では,ノイズラベルのガイダンスに基づき,信頼度の高い多視点学習モデルを構築する手法を提案する。
TMNRは明らかなディープニューラルネットワークを使用して、信念と不確実性の両方を捉えるビュー固有の意見を構築する。
TMNR2は、エビデンスラベルの整合性を通じて、潜在的に誤ラベルされたサンプルを特定し、近隣の情報から擬似ラベルを生成する。
論文 参考訳(メタデータ) (2024-04-18T06:47:30Z) - Learning to Correct Noisy Labels for Fine-Grained Entity Typing via
Co-Prediction Prompt Tuning [9.885278527023532]
FETにおける雑音補正のためのコプレディション・プロンプト・チューニングを提案する。
ラベル付きラベルをリコールするために予測結果を統合し、区別されたマージンを用いて不正確なラベルを識別する。
広範に使われている3つのFETデータセットの実験結果から,我々のノイズ補正アプローチはトレーニングサンプルの品質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-10-23T06:04:07Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Improve Noise Tolerance of Robust Loss via Noise-Awareness [60.34670515595074]
本稿では,NARL-Adjuster(NARL-Adjuster for brevity)と呼ばれる,ハイパーパラメータ予測関数を適応的に学習するメタラーニング手法を提案する。
4つのSOTAロバストな損失関数を我々のアルゴリズムに統合し,提案手法の一般性および性能をノイズ耐性と性能の両面で検証した。
論文 参考訳(メタデータ) (2023-01-18T04:54:58Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。