論文の概要: Embodied Domain Adaptation for Object Detection
- arxiv url: http://arxiv.org/abs/2506.21860v1
- Date: Fri, 27 Jun 2025 02:28:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.05456
- Title: Embodied Domain Adaptation for Object Detection
- Title(参考訳): 物体検出のための身体的領域適応
- Authors: Xiangyu Shi, Yanyuan Qiao, Lingqiao Liu, Feras Dayoub,
- Abstract要約: 我々は、ソースデータにアクセスせずに事前訓練されたモデルに適応するSource-Free Domain Adaptation (SFDA)アプローチを導入する。
実験の結果,ゼロショット検出性能が向上し,動的室内条件への柔軟な適応が得られた。
- 参考スコア(独自算出の注目度): 23.122536587620523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile robots rely on object detectors for perception and object localization in indoor environments. However, standard closed-set methods struggle to handle the diverse objects and dynamic conditions encountered in real homes and labs. Open-vocabulary object detection (OVOD), driven by Vision Language Models (VLMs), extends beyond fixed labels but still struggles with domain shifts in indoor environments. We introduce a Source-Free Domain Adaptation (SFDA) approach that adapts a pre-trained model without accessing source data. We refine pseudo labels via temporal clustering, employ multi-scale threshold fusion, and apply a Mean Teacher framework with contrastive learning. Our Embodied Domain Adaptation for Object Detection (EDAOD) benchmark evaluates adaptation under sequential changes in lighting, layout, and object diversity. Our experiments show significant gains in zero-shot detection performance and flexible adaptation to dynamic indoor conditions.
- Abstract(参考訳): 移動ロボットは、屋内環境における物体の認識と物体位置決めにオブジェクト検出器を頼っている。
しかし、標準的なクローズドセット手法は、実家や研究室で遭遇する多様な物体や動的条件を扱うのに苦労する。
Open-vocabulary Object Detection (OVOD)は、Vision Language Models (VLM)によって駆動され、固定ラベルを超えて拡張されるが、まだ屋内環境でのドメインシフトに苦戦している。
我々は、ソースデータにアクセスせずに事前訓練されたモデルに適応するSource-Free Domain Adaptation (SFDA)アプローチを導入する。
時間的クラスタリングにより擬似ラベルを洗練し,マルチスケールのしきい値融合を導入し,コントラスト学習を伴う平均教師の枠組みを適用した。
我々のEmbodied Domain Adaptation for Object Detection (EDAOD)ベンチマークは、照明、レイアウト、オブジェクトの多様性の逐次的な変化の下で適応を評価する。
実験の結果,ゼロショット検出性能が向上し,動的室内条件への柔軟な適応が得られた。
関連論文リスト
- Weakly Supervised Test-Time Domain Adaptation for Object Detection [23.89166024655107]
監視などの応用では、通常は人間のオペレーターがシステムの操作を監督する。
完全自動適応により達成可能な範囲を超えて、オブジェクト検出の性能を高めるために、テスト時間領域適応に演算子を関与させることを提案する。
提案手法は既存の手法よりも優れており, ループ内テスト時間領域適応の優れた利点を示す。
論文 参考訳(メタデータ) (2024-07-08T04:44:42Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - ViDA: Homeostatic Visual Domain Adapter for Continual Test Time Adaptation [48.039156140237615]
目標ドメインの継続的な変更に事前訓練されたモデルを適用するために、連続的なテスト時間適応タスクを提案する。
我々はCTTA用のVisual Domain Adapter (ViDA) を設計し、ドメイン固有知識とドメイン共有知識の両方を明示的に扱う。
提案手法は,CTTAタスクの分類とセグメント化の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-07T11:18:53Z) - AWADA: Attention-Weighted Adversarial Domain Adaptation for Object
Detection [0.0]
AWADA(Atention-Weighted Adrialversa Domain Adaptation)は、スタイル変換と検出タスクの間のフィードバックループを作成するためのフレームワークである。
我々は,AWADAが,合成・現実・悪天候・クロスカメラ適応等のタスクによく使用されるベンチマークにおいて,最先端の教師なし領域適応オブジェクト検出性能に達することを示す。
論文 参考訳(メタデータ) (2022-08-31T07:20:25Z) - Interactron: Embodied Adaptive Object Detection [18.644357684104662]
インタラクティブな環境下での適応オブジェクト検出手法であるInteractronを提案する。
私たちの考えは、推論中のトレーニングを継続し、環境との対話を通じて明確な監督なしに、テスト時にモデルを適応させることです。
論文 参考訳(メタデータ) (2022-02-01T18:56:14Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Multi-Target Domain Adaptation via Unsupervised Domain Classification
for Weather Invariant Object Detection [1.773576418078547]
トレーニング画像の天候がテスト画像と異なる場合、オブジェクト検出器の性能は著しく低下する。
マルチターゲットドメインへの単一ターゲットドメイン適応手法の一般化に使用できる新しい教師なしドメイン分類法を提案する。
本研究では,Cityscapesデータセットとその合成変種について実験を行った。
霧、雨、夜。
論文 参考訳(メタデータ) (2021-03-25T16:59:35Z) - Unsupervised Domain Adaptation for Spatio-Temporal Action Localization [69.12982544509427]
S時間動作の局所化はコンピュータビジョンにおいて重要な問題である。
本稿では、エンドツーエンドの教師なしドメイン適応アルゴリズムを提案する。
空間的特徴と時間的特徴を別々にあるいは共同的に適応した場合に,顕著な性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2020-10-19T04:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。