論文の概要: Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object
Detector
- arxiv url: http://arxiv.org/abs/2402.03094v1
- Date: Mon, 5 Feb 2024 15:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 15:32:44.955290
- Title: Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object
Detector
- Title(参考訳): 拡張オープンセットオブジェクト検出器によるクロスドメインFewショットオブジェクト検出
- Authors: Yuqian Fu, Yu Wang, Yixuan Pan, Lian Huai, Xingyu Qiu, Zeyu Shangguan,
Tong Liu, Lingjie Kong, Yanwei Fu, Luc Van Gool, Xingqun Jiang
- Abstract要約: クロスドメイン小ショット物体検出(CD-FSOD)
オープンセット検出器は、オープンボキャブラリオブジェクト検出と従来の少数ショットオブジェクト検出の両方に優れている。
我々はCD-FSOD(CD-Vito)のための改良型クロスドメインビジョン変換器を提案する。
- 参考スコア(独自算出の注目度): 72.05791402494727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the challenge of cross-domain few-shot object detection
(CD-FSOD), aiming to develop an accurate object detector for novel domains with
minimal labeled examples. While transformer-based open-set detectors e.g.,
DE-ViT~\cite{zhang2023detect} have excelled in both open-vocabulary object
detection and traditional few-shot object detection, detecting categories
beyond those seen during training, we thus naturally raise two key questions:
1) can such open-set detection methods easily generalize to CD-FSOD? 2) If no,
how to enhance the results of open-set methods when faced with significant
domain gaps? To address the first question, we introduce several metrics to
quantify domain variances and establish a new CD-FSOD benchmark with diverse
domain metric values. Some State-Of-The-Art (SOTA) open-set object detection
methods are evaluated on this benchmark, with evident performance degradation
observed across out-of-domain datasets. This indicates the failure of adopting
open-set detectors directly for CD-FSOD. Sequentially, to overcome the
performance degradation issue and also to answer the second proposed question,
we endeavor to enhance the vanilla DE-ViT. With several novel components
including finetuning, a learnable prototype module, and a lightweight attention
module, we present an improved Cross-Domain Vision Transformer for CD-FSOD
(CD-ViTO). Experiments show that our CD-ViTO achieves impressive results on
both out-of-domain and in-domain target datasets, establishing new SOTAs for
both CD-FSOD and FSOD. All the datasets, codes, and models will be released to
the community.
- Abstract(参考訳): 本稿では,最小限のラベル付きサンプルを用いた新規ドメイン向け高精度物体検出装置を開発することを目的とした,クロスドメインスショットオブジェクト検出(CD-FSOD)の課題に対処する。
de-vit~\cite{zhang2023detect} などの変圧器ベースのオープンセット検出器は、オープンボキャブラリーオブジェクト検出と従来の少数ショットオブジェクト検出の両方において優れているが、トレーニング中に見られるものを超えるカテゴリを検出することは、自然に2つの重要な疑問を提起する。
1) このような開集合検出法はCD-FSODに容易に一般化できるのか?
2) 有意なドメインギャップに直面した場合、オープンセットメソッドの結果をどのように向上させるか。
最初の問題に対処するために、ドメインの分散を定量化し、多様なドメインのメトリック値を持つ新しいCD-FSODベンチマークを確立するためのいくつかの指標を導入する。
State-Of-The-Art (SOTA) のオープンセットオブジェクト検出手法をこのベンチマークで評価した。
これはCD-FSODにオープンセット検出器を直接採用しなかったことを示している。
次に, 性能劣化問題を克服し, 第2の質問に答えるために, バニラD-ViTの強化に努める。
ファインタニング,学習可能なプロトタイプモジュール,軽量アテンションモジュールなどの新しいコンポーネントにより,CD-FSOD (CD-ViTO) 用のクロスドメインビジョントランスを改良した。
実験により、我々のCD-Vitoはドメイン外のターゲットデータセットとドメイン内のターゲットデータセットの両方で印象的な結果が得られ、CD-FSODとFSODの両方の新しいSOTAが確立された。
すべてのデータセット、コード、モデルはコミュニティにリリースされる予定だ。
関連論文リスト
- Improving Single Domain-Generalized Object Detection: A Focus on Diversification and Alignment [17.485775402656127]
基底検出器は、単一領域の一般化のための既存の手法を良いマージンで上回ることができる。
分類と局所化の両方の出力を考慮して,複数のビューから検出を整列する手法を提案する。
我々のアプローチは検出器非依存であり、単段検出器と二段検出器の両方にシームレスに適用できる。
論文 参考訳(メタデータ) (2024-05-23T12:29:25Z) - Robust Domain Adaptive Object Detection with Unified Multi-Granularity Alignment [59.831917206058435]
ドメイン適応検出は、ターゲットドメイン上の検出器の一般化を改善することを目的としている。
近年のアプローチは、異なる粒度の特徴アライメントを通じて、逆学習を通じてドメイン適応を実現する。
ドメイン不変な特徴学習のための統合多重粒度アライメント(MGA)に基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-01T08:38:07Z) - Exploiting Domain Transferability for Collaborative Inter-level Domain
Adaptive Object Detection [17.61278045720336]
オブジェクト検出のためのドメイン適応(DAOD)は、アノテーションなしで対象オブジェクトを検出できるため、最近注目を集めている。
従来の研究は、2段階検出器の部分的なレベルから抽出した特徴を、対向訓練によって整列させることに重点を置いていた。
本稿では,マルチスケール対応不確実性注意(MUA),転送可能領域ネットワーク(TRPN),動的インスタンスサンプリング(DIS)の3つのコンポーネントを用いた提案手法を提案する。
論文 参考訳(メタデータ) (2022-07-20T01:50:26Z) - Cross Domain Object Detection by Target-Perceived Dual Branch
Distillation [49.68119030818388]
クロスドメインオブジェクト検出は、現実的で挑戦的なタスクです。
本稿では,TDD(Target-perceived Dual-branch Distillation)フレームワークを提案する。
私たちのTDDは、すべてのベンチマークで最先端のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-05-03T03:51:32Z) - Domain Generalisation for Object Detection under Covariate and Concept Shift [10.32461766065764]
ドメインの一般化は、ドメイン固有の特徴を抑えながら、ドメイン不変の機能の学習を促進することを目的としている。
オブジェクト検出のためのドメイン一般化手法を提案し, オブジェクト検出アーキテクチャに適用可能な最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-10T11:14:18Z) - An Unsupervised Domain Adaptive Approach for Multimodal 2D Object
Detection in Adverse Weather Conditions [5.217255784808035]
本稿では、ソースとターゲットドメイン間のドメインギャップを埋めるために、教師なしのドメイン適応フレームワークを提案する。
天候の歪みをシミュレートするデータ拡張方式を用いて、ドメインの混乱を増し、ソースデータへの過度な適合を防止する。
DENSEデータセットで行った実験は、我々の手法がドメインギャップを大幅に軽減できることを示している。
論文 参考訳(メタデータ) (2022-03-07T18:10:40Z) - Unsupervised Domain Adaptive 3D Detection with Multi-Level Consistency [90.71745178767203]
ディープラーニングに基づく3Dオブジェクト検出は、大規模な自律走行データセットの出現によって、前例のない成功を収めた。
既存の3Dドメイン適応検出手法は、しばしばターゲットのドメインアノテーションへの事前アクセスを前提とします。
我々は、ソースドメインアノテーションのみを利用する、より現実的な、教師なしの3Dドメイン適応検出について研究する。
論文 参考訳(メタデータ) (2021-07-23T17:19:23Z) - Domain Adaptive YOLO for One-Stage Cross-Domain Detection [4.596221278839825]
ドメイン適応型YOLO (DA-YOLO) は1段検出器のクロスドメイン性能を向上させるために提案される。
提案手法を,Cityscapes,KITTI,SIM10Kなどの一般的なデータセット上で評価する。
論文 参考訳(メタデータ) (2021-06-26T04:17:42Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。