論文の概要: GOOD: Towards Domain Generalized Orientated Object Detection
- arxiv url: http://arxiv.org/abs/2402.12765v1
- Date: Tue, 20 Feb 2024 07:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:48:49.786991
- Title: GOOD: Towards Domain Generalized Orientated Object Detection
- Title(参考訳): GOOD: 汎用オブジェクト指向オブジェクト検出を目指して
- Authors: Qi Bi, Beichen Zhou, Jingjun Yi, Wei Ji, Haolan Zhan, Gui-Song Xia
- Abstract要約: オブジェクト指向物体検出はここ数年で急速に発展してきたが、これらの手法のほとんどは、トレーニングとテスト画像は同じ統計分布下にあると仮定している。
本稿では,任意の対象領域上でのオブジェクト指向物体検出の一般化を探求する領域一般化オブジェクト指向物体検出の課題を提案する。
- 参考スコア(独自算出の注目度): 39.76969237020444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Oriented object detection has been rapidly developed in the past few years,
but most of these methods assume the training and testing images are under the
same statistical distribution, which is far from reality. In this paper, we
propose the task of domain generalized oriented object detection, which intends
to explore the generalization of oriented object detectors on arbitrary unseen
target domains. Learning domain generalized oriented object detectors is
particularly challenging, as the cross-domain style variation not only
negatively impacts the content representation, but also leads to unreliable
orientation predictions. To address these challenges, we propose a generalized
oriented object detector (GOOD). After style hallucination by the emerging
contrastive language-image pre-training (CLIP), it consists of two key
components, namely, rotation-aware content consistency learning (RAC) and style
consistency learning (SEC). The proposed RAC allows the oriented object
detector to learn stable orientation representation from style-diversified
samples. The proposed SEC further stabilizes the generalization ability of
content representation from different image styles. Extensive experiments on
multiple cross-domain settings show the state-of-the-art performance of GOOD.
Source code will be publicly available.
- Abstract(参考訳): オブジェクト指向物体検出はここ数年で急速に発展してきたが、これらの手法のほとんどは、画像のトレーニングとテストは同じ統計分布下にあると仮定している。
本稿では、任意の未確認対象領域上でのオブジェクト指向物体検出の一般化を探求する領域一般化オブジェクト指向物体検出の課題を提案する。
学習領域 一般化された指向オブジェクト検出器は、クロスドメインスタイルのバリエーションがコンテンツ表現に負の影響を与えるだけでなく、信頼性の低い方向予測につながるため、特に難しい。
これらの課題に対処するため,我々は一般化指向オブジェクト検出器(good)を提案する。
新たなコントラスト言語イメージ事前学習(CLIP)によるスタイル幻覚の後、ローテーション・アウェアなコンテンツ一貫性学習(RAC)とスタイル一貫性学習(SEC)という2つの重要なコンポーネントから構成される。
提案するracにより,向き付け対象検出器は,スタイル分割されたサンプルから安定した方向表現を学習できる。
提案したSECは、異なる画像スタイルからのコンテンツ表現の一般化能力を更に安定化させる。
複数のクロスドメイン設定に関する大規模な実験は、GOODの最先端性能を示している。
ソースコードは公開されます。
関連論文リスト
- Detecting Every Object from Events [24.58024539462497]
本稿では,イベントベースの視覚において,クラスに依存しない高速なオープンワールドオブジェクト検出を実現するためのアプローチとして,イベント中のすべてのオブジェクトの検出(DEOE)を提案する。
私たちのコードはhttps://github.com/Hatins/DEOEで公開されています。
論文 参考訳(メタデータ) (2024-04-08T08:20:53Z) - Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object Detector [72.05791402494727]
本稿では,CD-FSODを用いたクロスドメイン小ショット検出法について検討する。
最小限のラベル付き例で、新しいドメインのための正確なオブジェクト検出器を開発することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T15:25:32Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Contrastive View Design Strategies to Enhance Robustness to Domain
Shifts in Downstream Object Detection [37.06088084592779]
コントラスト学習とドメイン外オブジェクト検出の実証的研究を行う。
本稿では,外見シフトやコンテキストシフトのシナリオにおいて,ビューを拡大し,堅牢性を高める戦略を提案する。
我々の結果と洞察は、対照的な学習における視点の選択を通じて、堅牢性を確保する方法を示している。
論文 参考訳(メタデータ) (2022-12-09T00:34:50Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。