論文の概要: LAB-Det: Language as a Domain-Invariant Bridge for Training-Free One-Shot Domain Generalization in Object Detection
- arxiv url: http://arxiv.org/abs/2602.06474v1
- Date: Fri, 06 Feb 2026 08:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.290483
- Title: LAB-Det: Language as a Domain-Invariant Bridge for Training-Free One-Shot Domain Generalization in Object Detection
- Title(参考訳): LAB-Det:オブジェクト検出における自由ワンショットドメイン一般化のためのドメイン不変ブリッジとしての言語
- Authors: Xu Zhang, Zhe Chen, Jing Zhang, Dacheng Tao,
- Abstract要約: 物体検出のための訓練不要なワンショット領域一般化を提案する。
我々は各例を、凍結検知器を条件付けし誘導する記述テキストに投影する。
UODD (underwater) と NEU-DET (industrial defects) についての検討
- 参考スコア(独自算出の注目度): 53.988759250627425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation object detectors such as GLIP and Grounding DINO excel on general-domain data but often degrade in specialized and data-scarce settings like underwater imagery or industrial defects. Typical cross-domain few-shot approaches rely on fine-tuning scarce target data, incurring cost and overfitting risks. We instead ask: Can a frozen detector adapt with only one exemplar per class without training? To answer this, we introduce training-free one-shot domain generalization for object detection, where detectors must adapt to specialized domains with only one annotated exemplar per class and no weight updates. To tackle this task, we propose LAB-Det, which exploits Language As a domain-invariant Bridge. Instead of adapting visual features, we project each exemplar into a descriptive text that conditions and guides a frozen detector. This linguistic conditioning replaces gradient-based adaptation, enabling robust generalization in data-scarce domains. We evaluate on UODD (underwater) and NEU-DET (industrial defects), two widely adopted benchmarks for data-scarce detection, where object boundaries are often ambiguous, and LAB-Det achieves up to 5.4 mAP improvement over state-of-the-art fine-tuned baselines without updating a single parameter. These results establish linguistic adaptation as an efficient and interpretable alternative to fine-tuning in specialized detection settings.
- Abstract(参考訳): GLIP や Grounding DINO のような基礎となるオブジェクト検出器は、一般的なドメインデータに優れるが、水中画像や工業的欠陥のような特殊でデータの少ない環境では劣化することが多い。
典型的なクロスドメインの少数ショットアプローチは、微調整の少ないターゲットデータ、コスト、過度に適合するリスクに頼っている。
凍結検知器は、トレーニングなしでクラス毎に1つの例に適応できますか?
そこでは,各クラスに1つの注釈付き前置詞のみを付加し,重み更新を行わずに,特定ドメインに適応する必要がある。
この課題に対処するために,Languageをドメイン不変ブリッジとして活用するLAB-Detを提案する。
視覚的特徴を適応させる代わりに、私たちはそれぞれを条件付きで凍結検知器を誘導する記述テキストに投影します。
この言語条件付けは勾配に基づく適応を置き換え、データスカース領域の堅牢な一般化を可能にする。
UODD (underwater) と NEU-DET (industrial defects, NEU-DET) の2つの広く採用されているデータスカース検出のベンチマークにおいて、オブジェクト境界が曖昧である場合が多く、LAB-Detは1つのパラメータを更新することなく、最先端の微調整ベースラインよりも最大5.4mAPの改善を実現している。
これらの結果は、特殊検出設定における微調整の代替として、効率的かつ解釈可能な言語適応を確立している。
関連論文リスト
- Differential Alignment for Domain Adaptive Object Detection [13.664876152118165]
ドメイン適応オブジェクト検出(DAOD)は、ラベル付きソースドメインデータに基づいてトレーニングされたオブジェクト検出器をアノテーションなしでターゲットドメインに一般化することを目的としている。
既存のアプローチでは、ソースとターゲットドメイン全体の分布を調整するために、逆学習を採用している。
本稿では,その欠点を克服するための特徴アライメント戦略を提案する。
論文 参考訳(メタデータ) (2024-12-17T11:52:10Z) - DATR: Unsupervised Domain Adaptive Detection Transformer with Dataset-Level Adaptation and Prototypical Alignment [7.768332621617199]
我々は、オブジェクト検出の教師なし領域適応のために、ドメイン適応検出TRansformer(DATR)と呼ばれる強力なDETRベースの検出器を導入する。
提案するDATRは,教師モデルによって生成された擬似ラベルを用いて,平均教師に基づく自己学習フレームワークを組み込んで,ドメインバイアスをさらに緩和する。
複数のドメイン適応シナリオにおいて,提案したDATRの性能と一般化性を示す実験を行った。
論文 参考訳(メタデータ) (2024-05-20T03:48:45Z) - Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object Detector [72.05791402494727]
本稿では,CD-FSODを用いたクロスドメイン小ショット検出法について検討する。
最小限のラベル付き例で、新しいドメインのための正確なオブジェクト検出器を開発することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T15:25:32Z) - Seeking Flat Minima with Mean Teacher on Semi- and Weakly-Supervised Domain Generalization for Object Detection [17.831445694502396]
半教師付きドメイン一般化オブジェクト検出(SS-DGOD)と弱い教師付きDGOD(WS-DGOD)の2つの問題設定について検討する。
複数のドメインからのラベル付きデータを必要とする従来のドメインの一般化とは対照的に、SS-DGODとWS-DGODは1つのドメインからのみラベル付きデータを必要とし、トレーニングのために複数のドメインからラベル付きまたは弱いラベル付きデータを必要とする。
オブジェクト検出器は,同じ平均教師学習フレームワークを用いて,2つの設定で効果的に学習可能であることを示す。
論文 参考訳(メタデータ) (2023-10-30T08:46:26Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。