論文の概要: De-Simplifying Pseudo Labels to Enhancing Domain Adaptive Object Detection
- arxiv url: http://arxiv.org/abs/2507.00608v1
- Date: Tue, 01 Jul 2025 09:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.56251
- Title: De-Simplifying Pseudo Labels to Enhancing Domain Adaptive Object Detection
- Title(参考訳): 擬似ラベルの簡易化によるドメイン適応オブジェクト検出の実現
- Authors: Zehua Fu, Chenguang Liu, Yuyu Chen, Jiaqi Zhou, Qingjie Liu, Yunhong Wang,
- Abstract要約: 本研究では, 自己ラベル検出器がドメインアライメント法で複合性能を達成するのを防ぐ限界について検討する。
そこで我々は,この問題を緩和するために,De-Simplifying Pseudo Labels (DeSimPL) という新しい手法を提案する。
実験結果から,DeSimPLはトレーニング中の単純試料の割合を効果的に低減し,自己標識検出器の性能向上を図った。
- 参考スコア(独自算出の注目度): 33.07404672485466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite its significant success, object detection in traffic and transportation scenarios requires time-consuming and laborious efforts in acquiring high-quality labeled data. Therefore, Unsupervised Domain Adaptation (UDA) for object detection has recently gained increasing research attention. UDA for object detection has been dominated by domain alignment methods, which achieve top performance. Recently, self-labeling methods have gained popularity due to their simplicity and efficiency. In this paper, we investigate the limitations that prevent self-labeling detectors from achieving commensurate performance with domain alignment methods. Specifically, we identify the high proportion of simple samples during training, i.e., the simple-label bias, as the central cause. We propose a novel approach called De-Simplifying Pseudo Labels (DeSimPL) to mitigate the issue. DeSimPL utilizes an instance-level memory bank to implement an innovative pseudo label updating strategy. Then, adversarial samples are introduced during training to enhance the proportion. Furthermore, we propose an adaptive weighted loss to avoid the model suffering from an abundance of false positive pseudo labels in the late training period. Experimental results demonstrate that DeSimPL effectively reduces the proportion of simple samples during training, leading to a significant performance improvement for self-labeling detectors. Extensive experiments conducted on four benchmarks validate our analysis and conclusions.
- Abstract(参考訳): その大きな成功にもかかわらず、交通と交通のシナリオにおけるオブジェクト検出には、高品質なラベル付きデータを取得するのに時間と労力を要する。
そのため、オブジェクト検出のためのUnsupervised Domain Adaptation (UDA)が近年研究の注目を集めている。
オブジェクト検出のためのUDAは、トップパフォーマンスを実現するドメインアライメントメソッドによって支配されている。
近年, 簡便さと効率性から, 自己ラベル方式が普及している。
本稿では,自己ラベル検出器がドメインアライメント手法によるコンメンシュレート性能を達成するのを防ぐための限界について検討する。
具体的には、トレーニング中の単純なサンプルの割合、すなわち単純なラベルバイアスを中心的な原因として特定する。
そこで我々は,この問題を緩和するために,De-Simplifying Pseudo Labels (DeSimPL) という新しい手法を提案する。
DeSimPLはインスタンスレベルのメモリバンクを使用して、革新的な擬似ラベル更新戦略を実装している。
次に、トレーニング中に対向サンプルを導入し、比率を高める。
さらに,学習後期に偽陽性の擬似ラベルが多量に存在するモデルを避けるために,適応重み付き損失を提案する。
実験結果から,DeSimPLはトレーニング中の単純試料の割合を効果的に低減し,自己標識検出器の性能向上を図った。
4つのベンチマークで実施された大規模な実験は、我々の分析と結論を検証する。
関連論文リスト
- Propensity-driven Uncertainty Learning for Sample Exploration in Source-Free Active Domain Adaptation [19.620523416385346]
ソースフリーアクティブドメイン適応(SFADA)は、ソースデータにアクセスせずに、トレーニング済みのモデルを新しいドメインに適応するという課題に対処する。
このシナリオは、データプライバシ、ストレージ制限、ラベル付けコストが重要な懸念事項である現実世界のアプリケーションに特に関係している。
Propensity-driven Uncertainty Learning (ProULearn) フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T10:05:25Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Revisiting Class Imbalance for End-to-end Semi-Supervised Object
Detection [1.6249267147413524]
半教師付きオブジェクト検出(SSOD)は、擬似ラベルに基づくエンドツーエンド手法の開発において大きな進歩を遂げている。
多くの手法は、擬似ラベルジェネレータの有効性を妨げるクラス不均衡のため、課題に直面している。
本稿では,低品質な擬似ラベルの根本原因と,ラベル生成品質を改善するための新しい学習メカニズムについて検討する。
論文 参考訳(メタデータ) (2023-06-04T06:01:53Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Constraining Pseudo-label in Self-training Unsupervised Domain
Adaptation with Energy-based Model [26.074500538428364]
ラベル付きソースドメインの知識をラベル付きターゲットドメインに導入するために、unsupervised domain adaptation (UDA) が開発されている。
近年、深層自己学習は、ターゲットドメインを予測する反復的なプロセスを含む、UDAにとって強力な手段となる。
我々はエネルギーベースモデルを採用し,エネルギー関数最小化の目標とする未ラベル対象試料の訓練を制約する。
論文 参考訳(メタデータ) (2022-08-26T22:50:23Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - WSSOD: A New Pipeline for Weakly- and Semi-Supervised Object Detection [75.80075054706079]
弱機能および半教師付きオブジェクト検出フレームワーク(WSSOD)を提案する。
エージェント検出器は、まず関節データセット上でトレーニングされ、弱注釈画像上で擬似境界ボックスを予測するために使用される。
提案フレームワークはPASCAL-VOC と MSCOCO のベンチマークで顕著な性能を示し,完全教師付き環境で得られたものと同等の性能を達成している。
論文 参考訳(メタデータ) (2021-05-21T11:58:50Z) - Energy-constrained Self-training for Unsupervised Domain Adaptation [25.594991545790638]
Unsupervised Domain Adapt (UDA)は、ラベル付きソースドメインの知識を、ラベル付きターゲットドメインでうまく機能させることを目的としています。
近年、深層自己学習は、対象領域を予測し、自信のある予測をトレーニングの硬い擬似ラベルとして取り込む反復的なプロセスを含む。
本論文では, エネルギーに基づくモデルに頼り, エネルギー関数最小化目標を用いて, ラベルのない対象試料の訓練を制約する。
論文 参考訳(メタデータ) (2021-01-01T21:02:18Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。