論文の概要: PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation
- arxiv url: http://arxiv.org/abs/2108.07142v1
- Date: Mon, 16 Aug 2021 15:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:59:09.062747
- Title: PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation
- Title(参考訳): PIT:クロスFoV領域適応のための位置不変変換
- Authors: Qiqi Gu, Qianyu Zhou, Minghao Xu, Zhengyang Feng, Guangliang Cheng,
Xuequan Lu, Jianping Shi, Lizhuang Ma
- Abstract要約: フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
- 参考スコア(独自算出の注目度): 53.428312630479816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-domain object detection and semantic segmentation have witnessed
impressive progress recently. Existing approaches mainly consider the domain
shift resulting from external environments including the changes of background,
illumination or weather, while distinct camera intrinsic parameters appear
commonly in different domains, and their influence for domain adaptation has
been very rarely explored. In this paper, we observe that the Field of View
(FoV) gap induces noticeable instance appearance differences between the source
and target domains. We further discover that the FoV gap between two domains
impairs domain adaptation performance under both the FoV-increasing (source FoV
< target FoV) and FoV-decreasing cases. Motivated by the observations, we
propose the \textbf{Position-Invariant Transform} (PIT) to better align images
in different domains. We also introduce a reverse PIT for mapping the
transformed/aligned images back to the original image space and design a loss
re-weighting strategy to accelerate the training process. Our method can be
easily plugged into existing cross-domain detection/segmentation frameworks
while bringing about negligible computational overhead. Extensive experiments
demonstrate that our method can soundly boost the performance on both
cross-domain object detection and segmentation for state-of-the-art techniques.
Our code is available at
https://github.com/sheepooo/PIT-Position-Invariant-Transform.
- Abstract(参考訳): クロスドメインオブジェクト検出とセマンティクスセグメンテーションは近年目覚ましい進歩を遂げている。
既存のアプローチでは、背景、照明、天候などの外部環境から生じるドメインシフトを主に考慮しているが、カメラ固有のパラメータは異なるドメインに共通して現れており、ドメイン適応への影響は極めて稀である。
本稿では,fov(field of view)ギャップが,ソース領域とターゲット領域の間に顕著なインスタンス出現の差異を引き起こすことを観察する。
さらに,両領域間のFoVギャップは,FoV増加率(ソースFoV<ターゲットFoV)とFoV減少率の両方でドメイン適応性能を損なうことが判明した。
観測結果に動機づけられ、異なる領域の画像をよりよく整列する \textbf{position-invariant transform} (pit) を提案する。
また、変換/アライメントされた画像を元の画像空間にマッピングする逆PITを導入し、トレーニングプロセスの高速化のために損失再重み付け戦略を設計する。
本手法は,既存のクロスドメイン検出/セグメンテーションフレームワークに容易に接続でき,計算オーバーヘッドが無視できる。
本手法は,最先端技術におけるクロスドメインオブジェクト検出とセグメンテーションの両方の性能向上に有効であることを示す。
私たちのコードはhttps://github.com/sheepooo/PIT-Position-Invariant-Transformで利用可能です。
関連論文リスト
- GLAD: Global-Local View Alignment and Background Debiasing for
Unsupervised Video Domain Adaptation with Large Domain Gap [9.284539958686368]
動作認識のための教師なしビデオドメイン適応(UVDA)の課題に対処する。
我々は,時間的ダイナミクスと背景シフトの両面において,ドメインギャップがかなり大きい,Kineetics->BABELという新しいUVDAシナリオを導入する。
本研究では,提案手法がKineetics->BABELデータセットの領域ギャップが大きい既存手法よりも大幅に改善されていることを実証的に検証した。
論文 参考訳(メタデータ) (2023-11-21T09:27:30Z) - Reducing Domain Gap in Frequency and Spatial domain for Cross-modality
Domain Adaptation on Medical Image Segmentation [5.371816551086118]
教師なしドメイン適応(UDA)は、ソースドメインで訓練されたモデルを学び、ラベルなしのターゲットドメインでうまく機能することを目的としています。
本稿では, 周波数及び空間領域移動Uner Multi-Teacher蒸留フレームワークに基づく, 単純かつ効果的なUDA法を提案する。
提案手法は最先端手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-28T11:35:39Z) - Exploring Consistency in Cross-Domain Transformer for Domain Adaptive
Semantic Segmentation [51.10389829070684]
ドメインギャップは、自己注意の相違を引き起こす可能性がある。
このギャップのため、変圧器は、ターゲット領域の精度を低下させる刺激領域または画素に付随する。
ドメイン横断の注意層を持つアテンションマップに適応する。
論文 参考訳(メタデータ) (2022-11-27T02:40:33Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Domain Adaptation for Object Detection using SE Adaptors and Center Loss [0.0]
本稿では,高速RCNNに基づく教師なしドメイン適応手法を導入し,ドメインシフトによる性能低下を防止する。
また、SEアダプタと呼ばれる圧縮励起機構を利用して、ドメインの注意を向上するアダプティブレイヤのファミリーも導入する。
最後に、インスタンスと画像レベルの表現に中心損失を組み込んで、クラス内分散を改善する。
論文 参考訳(メタデータ) (2022-05-25T17:18:31Z) - An End-to-end Supervised Domain Adaptation Framework for Cross-Domain
Change Detection [29.70695339406896]
クロスドメイン変更検出のためのエンドツーエンドのドメイン適応フレームワークを提案する。
SDACDは画像と特徴の両方の観点から協調的な適応と教師あり学習を提示する。
我々のフレームワークは、いくつかの代表的ベースラインモデルを新しいState-Of-The-Artレコードに押し上げる。
論文 参考訳(メタデータ) (2022-04-01T01:35:30Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。