論文の概要: GOOD: Towards Domain Generalized Orientated Object Detection
- arxiv url: http://arxiv.org/abs/2402.12765v1
- Date: Tue, 20 Feb 2024 07:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:48:49.786991
- Title: GOOD: Towards Domain Generalized Orientated Object Detection
- Title(参考訳): GOOD: 汎用オブジェクト指向オブジェクト検出を目指して
- Authors: Qi Bi, Beichen Zhou, Jingjun Yi, Wei Ji, Haolan Zhan, Gui-Song Xia
- Abstract要約: オブジェクト指向物体検出はここ数年で急速に発展してきたが、これらの手法のほとんどは、トレーニングとテスト画像は同じ統計分布下にあると仮定している。
本稿では,任意の対象領域上でのオブジェクト指向物体検出の一般化を探求する領域一般化オブジェクト指向物体検出の課題を提案する。
- 参考スコア(独自算出の注目度): 39.76969237020444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oriented object detection has been rapidly developed in the past few years,
but most of these methods assume the training and testing images are under the
same statistical distribution, which is far from reality. In this paper, we
propose the task of domain generalized oriented object detection, which intends
to explore the generalization of oriented object detectors on arbitrary unseen
target domains. Learning domain generalized oriented object detectors is
particularly challenging, as the cross-domain style variation not only
negatively impacts the content representation, but also leads to unreliable
orientation predictions. To address these challenges, we propose a generalized
oriented object detector (GOOD). After style hallucination by the emerging
contrastive language-image pre-training (CLIP), it consists of two key
components, namely, rotation-aware content consistency learning (RAC) and style
consistency learning (SEC). The proposed RAC allows the oriented object
detector to learn stable orientation representation from style-diversified
samples. The proposed SEC further stabilizes the generalization ability of
content representation from different image styles. Extensive experiments on
multiple cross-domain settings show the state-of-the-art performance of GOOD.
Source code will be publicly available.
- Abstract(参考訳): オブジェクト指向物体検出はここ数年で急速に発展してきたが、これらの手法のほとんどは、画像のトレーニングとテストは同じ統計分布下にあると仮定している。
本稿では、任意の未確認対象領域上でのオブジェクト指向物体検出の一般化を探求する領域一般化オブジェクト指向物体検出の課題を提案する。
学習領域 一般化された指向オブジェクト検出器は、クロスドメインスタイルのバリエーションがコンテンツ表現に負の影響を与えるだけでなく、信頼性の低い方向予測につながるため、特に難しい。
これらの課題に対処するため,我々は一般化指向オブジェクト検出器(good)を提案する。
新たなコントラスト言語イメージ事前学習(CLIP)によるスタイル幻覚の後、ローテーション・アウェアなコンテンツ一貫性学習(RAC)とスタイル一貫性学習(SEC)という2つの重要なコンポーネントから構成される。
提案するracにより,向き付け対象検出器は,スタイル分割されたサンプルから安定した方向表現を学習できる。
提案したSECは、異なる画像スタイルからのコンテンツ表現の一般化能力を更に安定化させる。
複数のクロスドメイン設定に関する大規模な実験は、GOODの最先端性能を示している。
ソースコードは公開されます。
関連論文リスト
- Improving Generalization Ability for 3D Object Detection by Learning Sparsity-invariant Features [21.761631081209263]
単一領域における3次元物体検出の一般化能力を向上させる手法を提案する。
1つのソースドメインから空間不変の特徴を学習するために、ソースデータを特定のビームに選択的にサブサンプリングする。
我々はまた、異なる点の雲の密度にBird’s Eye View機能を調整するために、教師学生のフレームワークも使用しています。
論文 参考訳(メタデータ) (2025-02-04T13:47:02Z) - Object Style Diffusion for Generalized Object Detection in Urban Scene [69.04189353993907]
本稿では,GoDiffという新しい単一ドメインオブジェクト検出一般化手法を提案する。
擬似ターゲットドメインデータとソースドメインデータを統合することで、トレーニングデータセットを多様化する。
実験により,本手法は既存の検出器の一般化能力を高めるだけでなく,他の単一領域一般化手法のプラグ・アンド・プレイ拡張として機能することが示された。
論文 参考訳(メタデータ) (2024-12-18T13:03:00Z) - Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object Detector [72.05791402494727]
本稿では,CD-FSODを用いたクロスドメイン小ショット検出法について検討する。
最小限のラベル付き例で、新しいドメインのための正確なオブジェクト検出器を開発することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T15:25:32Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Contrastive View Design Strategies to Enhance Robustness to Domain
Shifts in Downstream Object Detection [37.06088084592779]
コントラスト学習とドメイン外オブジェクト検出の実証的研究を行う。
本稿では,外見シフトやコンテキストシフトのシナリオにおいて,ビューを拡大し,堅牢性を高める戦略を提案する。
我々の結果と洞察は、対照的な学習における視点の選択を通じて、堅牢性を確保する方法を示している。
論文 参考訳(メタデータ) (2022-12-09T00:34:50Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。