論文の概要: Bi-Dimensional Feature Alignment for Cross-Domain Object Detection
- arxiv url: http://arxiv.org/abs/2011.07205v1
- Date: Sat, 14 Nov 2020 03:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 13:37:49.478452
- Title: Bi-Dimensional Feature Alignment for Cross-Domain Object Detection
- Title(参考訳): クロスドメインオブジェクト検出のための2次元特徴アライメント
- Authors: Zhen Zhao, Yuhong Guo, and Jieping Ye
- Abstract要約: 教師なしクロスドメイン検出モデルを提案する。
ソースドメインのアノテーション付きデータを利用して、異なるターゲットドメインに対してオブジェクト検出器をトレーニングする。
提案モデルでは、オブジェクト検出のためのクロスドメイン表現のばらつきを緩和する。
- 参考スコア(独自算出の注目度): 71.85594342357815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently the problem of cross-domain object detection has started drawing
attention in the computer vision community. In this paper, we propose a novel
unsupervised cross-domain detection model that exploits the annotated data in a
source domain to train an object detector for a different target domain. The
proposed model mitigates the cross-domain representation divergence for object
detection by performing cross-domain feature alignment in two dimensions, the
depth dimension and the spatial dimension. In the depth dimension of channel
layers, it uses inter-channel information to bridge the domain divergence with
respect to image style alignment. In the dimension of spatial layers, it
deploys spatial attention modules to enhance detection relevant regions and
suppress irrelevant regions with respect to cross-domain feature alignment.
Experiments are conducted on a number of benchmark cross-domain detection
datasets. The empirical results show the proposed method outperforms the
state-of-the-art comparison methods.
- Abstract(参考訳): 近年,コンピュータビジョンコミュニティにおいて,クロスドメインオブジェクト検出の問題が注目されている。
本稿では、ソースドメイン内のアノテーション付きデータを利用して、異なるターゲットドメインに対するオブジェクト検出をトレーニングする、新しい教師なしクロスドメイン検出モデルを提案する。
提案モデルでは,2次元,深さ次元,空間次元の領域間特徴アライメントを行うことにより,物体検出のためのクロスドメイン表現のばらつきを緩和する。
チャネル層の深さ次元では、チャネル間情報を使用して、画像スタイルのアライメントに関してドメインの分岐を橋渡しする。
空間層の次元において、空間的注意モジュールを配置し、関連領域の検出を強化し、ドメイン間の特徴アライメントに関して無関係な領域を抑圧する。
多数のベンチマーククロスドメイン検出データセットで実験が行われる。
実験の結果,提案手法は最先端比較法よりも優れていた。
関連論文リスト
- Hyperspectral Image Cross-Domain Object Detection Method based on Spectral-Spatial Feature Alignment [18.384882910944622]
本研究では、ハイパースペクトル画像の教師なしクロスドメインオブジェクト検出について検討する。
我々の重要な観察は、局所的な空間スペクトル特性が異なる領域間で不変であることである。
領域シフトの問題を解決するために,スペクトル空間的特徴アライメントに基づくHSIクロスドメインオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T06:42:06Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Multi-Granularity Alignment Domain Adaptation for Object Detection [33.32519045960187]
ドメイン適応型オブジェクト検出は、ソースドメインとターゲットドメインの間に特有のデータ分布があるため、難しい。
ドメイン不変な特徴学習に向けた多粒度アライメントに基づくオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-31T09:05:06Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Channel-wise Alignment for Adaptive Object Detection [66.76486843397267]
遺伝的物体検出は、ディープ畳み込みニューラルネットワークの開発によって大いに促進されている。
このタスクの既存の方法は、通常、画像全体や関心の対象に基づいて、ハイレベルなアライメントに注意を向ける。
本稿では,チャネルワイドアライメント(チャネルワイドアライメント)という,まったく異なる観点からの適応を実現する。
論文 参考訳(メタデータ) (2020-09-07T02:42:18Z) - Spatial Attention Pyramid Network for Unsupervised Domain Adaptation [66.75008386980869]
教師なし領域適応は様々なコンピュータビジョンタスクにおいて重要である。
教師なし領域適応のための新しい空間注意ピラミッドネットワークを設計する。
我々の手法は最先端の手法に対して大きなマージンで好適に機能する。
論文 参考訳(メタデータ) (2020-03-29T09:03:23Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。