論文の概要: Cross-Modality Domain Adaptation for Freespace Detection: A Simple yet
Effective Baseline
- arxiv url: http://arxiv.org/abs/2210.02991v1
- Date: Thu, 6 Oct 2022 15:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:34:33.563474
- Title: Cross-Modality Domain Adaptation for Freespace Detection: A Simple yet
Effective Baseline
- Title(参考訳): 自由空間検出のためのクロスモーダルドメイン適応:単純で効果的なベースライン
- Authors: Yuanbin Wang, Leyan Zhu, Shaofei Huang, Tianrui Hui, Xiaojie Li, Fei
Wang, Si Liu
- Abstract要約: フリースペース検出は、カメラが捉えた画像の各ピクセルを、ドライビング可能または非駆動可能と分類することを目的としている。
我々はRGB画像と深度画像から生成された表面正規写像の両方を利用するクロスモダリティ領域適応フレームワークを開発した。
ソースドメイン(合成データ)とターゲットドメイン(実世界のデータ)のドメインギャップを埋めるため、選択的特徴アライメント(SFA)モジュールも提案する。
- 参考スコア(独自算出の注目度): 21.197212665408262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the fundamental functions of autonomous driving system, freespace
detection aims at classifying each pixel of the image captured by the camera as
drivable or non-drivable. Current works of freespace detection heavily rely on
large amount of densely labeled training data for accuracy and robustness,
which is time-consuming and laborious to collect and annotate. To the best of
our knowledge, we are the first work to explore unsupervised domain adaptation
for freespace detection to alleviate the data limitation problem with synthetic
data. We develop a cross-modality domain adaptation framework which exploits
both RGB images and surface normal maps generated from depth images. A
Collaborative Cross Guidance (CCG) module is proposed to leverage the context
information of one modality to guide the other modality in a cross manner, thus
realizing inter-modality intra-domain complement. To better bridge the domain
gap between source domain (synthetic data) and target domain (real-world data),
we also propose a Selective Feature Alignment (SFA) module which only aligns
the features of consistent foreground area between the two domains, thus
realizing inter-domain intra-modality adaptation. Extensive experiments are
conducted by adapting three different synthetic datasets to one real-world
dataset for freespace detection respectively. Our method performs closely to
fully supervised freespace detection methods (93.08 v.s. 97.50 F1 score) and
outperforms other general unsupervised domain adaptation methods for semantic
segmentation with large margins, which shows the promising potential of domain
adaptation for freespace detection.
- Abstract(参考訳): 自律運転システムの基本機能の一つとして、自由空間検出は、カメラが捉えた画像の各ピクセルを、ドライビング可能または非駆動可能と分類することを目的としている。
フリースペース検出の現在の研究は、高度にラベル付けされた大量のトレーニングデータを精度と堅牢性に大きく依存している。
我々の知る限り、我々は、合成データによるデータ制限問題を軽減するために、自由空間検出のための教師なし領域適応を初めて検討する。
我々はRGB画像と深度画像から生成された表面正規写像の両方を利用するクロスモダリティ領域適応フレームワークを開発した。
協調的クロスガイダンス(CCG)モジュールは、一方のモダリティの文脈情報を利用して、他方のモダリティを相互に導くことによって、ドメイン間の相補性を実現する。
また、ソースドメイン(合成データ)とターゲットドメイン(実世界のデータ)のドメインギャップを埋めるため、二つのドメイン間の一貫した前景領域の特徴のみを整列させるSelective Feature Alignment (SFA)モジュールを提案し、ドメイン間のモダリティ適応を実現する。
3つの異なる合成データセットを1つの実世界のデータセットにそれぞれ適応させ、それぞれ自由空間検出を行う。
本手法は,完全教師付き自由空間検出法 (93.08 v.s. 97.50 f1 score) と密接な関係を持ち,広いマージンを持つ意味セグメンテーションのための他の一般的な教師なし領域適応法よりも優れている。
関連論文リスト
- Source-free Domain Adaptive Object Detection in Remote Sensing Images [11.19538606490404]
本研究では,RS画像のソースフリーオブジェクト検出(SFOD)設定を提案する。
これは、ソース事前学習モデルのみを使用してターゲットドメイン適応を実行することを目的としている。
本手法では,ソース領域RS画像へのアクセスは不要である。
論文 参考訳(メタデータ) (2024-01-31T15:32:44Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - An Unsupervised Domain Adaptive Approach for Multimodal 2D Object
Detection in Adverse Weather Conditions [5.217255784808035]
本稿では、ソースとターゲットドメイン間のドメインギャップを埋めるために、教師なしのドメイン適応フレームワークを提案する。
天候の歪みをシミュレートするデータ拡張方式を用いて、ドメインの混乱を増し、ソースデータへの過度な適合を防止する。
DENSEデータセットで行った実験は、我々の手法がドメインギャップを大幅に軽減できることを示している。
論文 参考訳(メタデータ) (2022-03-07T18:10:40Z) - Learning Cross-modal Contrastive Features for Video Domain Adaptation [138.75196499580804]
本稿では、クロスモーダルとクロスドメインの特徴表現を同時に正規化する、ビデオドメイン適応のための統合フレームワークを提案する。
具体的には、ドメインの各モダリティを視点として扱い、コントラスト学習手法を適切に設計されたサンプリング戦略で活用する。
論文 参考訳(メタデータ) (2021-08-26T18:14:18Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Adapt Everywhere: Unsupervised Adaptation of Point-Clouds and Entropy
Minimisation for Multi-modal Cardiac Image Segmentation [10.417009344120917]
マルチモーダル心臓画像分割のための新しいUDA法を提案する。
提案手法は、逆学習に基づいて、異なる空間におけるソースとターゲットドメイン間のネットワーク特徴を適応する。
本手法はannotated source domainからunannotated target domainへの適応により2つの心データセットで検証した。
論文 参考訳(メタデータ) (2021-03-15T08:59:44Z) - Bi-Dimensional Feature Alignment for Cross-Domain Object Detection [71.85594342357815]
教師なしクロスドメイン検出モデルを提案する。
ソースドメインのアノテーション付きデータを利用して、異なるターゲットドメインに対してオブジェクト検出器をトレーニングする。
提案モデルでは、オブジェクト検出のためのクロスドメイン表現のばらつきを緩和する。
論文 参考訳(メタデータ) (2020-11-14T03:03:11Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Spatial Attention Pyramid Network for Unsupervised Domain Adaptation [66.75008386980869]
教師なし領域適応は様々なコンピュータビジョンタスクにおいて重要である。
教師なし領域適応のための新しい空間注意ピラミッドネットワークを設計する。
我々の手法は最先端の手法に対して大きなマージンで好適に機能する。
論文 参考訳(メタデータ) (2020-03-29T09:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。