論文の概要: Geometry-Aware Network for Domain Adaptive Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2212.00920v1
- Date: Fri, 2 Dec 2022 00:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 16:38:56.667940
- Title: Geometry-Aware Network for Domain Adaptive Semantic Segmentation
- Title(参考訳): ドメイン適応意味セグメンテーションのための幾何認識ネットワーク
- Authors: Yinghong Liao, Wending Zhou, Xu Yan, Shuguang Cui, Yizhou Yu, Zhen Li
- Abstract要約: 本稿では,ドメイン間のギャップを小さくするために,ドメイン適応のための幾何学的ネットワーク(GANDA)を提案する。
我々は、RGB-D画像から生成された点雲上の3Dトポロジを利用して、対象領域における座標色歪みと擬似ラベルの微細化を行う。
我々のモデルは,GTA5->CityscapesとSynTHIA->Cityscapesの最先端技術より優れている。
- 参考スコア(独自算出の注目度): 64.00345743710653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Measuring and alleviating the discrepancies between the synthetic (source)
and real scene (target) data is the core issue for domain adaptive semantic
segmentation. Though recent works have introduced depth information in the
source domain to reinforce the geometric and semantic knowledge transfer, they
cannot extract the intrinsic 3D information of objects, including positions and
shapes, merely based on 2D estimated depth. In this work, we propose a novel
Geometry-Aware Network for Domain Adaptation (GANDA), leveraging more compact
3D geometric point cloud representations to shrink the domain gaps. In
particular, we first utilize the auxiliary depth supervision from the source
domain to obtain the depth prediction in the target domain to accomplish
structure-texture disentanglement. Beyond depth estimation, we explicitly
exploit 3D topology on the point clouds generated from RGB-D images for further
coordinate-color disentanglement and pseudo-labels refinement in the target
domain. Moreover, to improve the 2D classifier in the target domain, we perform
domain-invariant geometric adaptation from source to target and unify the 2D
semantic and 3D geometric segmentation results in two domains. Note that our
GANDA is plug-and-play in any existing UDA framework. Qualitative and
quantitative results demonstrate that our model outperforms state-of-the-arts
on GTA5->Cityscapes and SYNTHIA->Cityscapes.
- Abstract(参考訳): 合成(ソース)データと実際のシーン(ターゲット)データとの差異の測定と緩和は、ドメイン適応意味セグメンテーションの核となる問題である。
近年の研究では、幾何学的および意味的な知識伝達を強化するために、ソース領域に深度情報を導入しているが、2次元推定深度に基づいて位置や形状を含む固有3D情報を抽出することはできない。
本研究では,よりコンパクトな3次元幾何点雲表現を利用して領域ギャップを縮小する,ドメイン適応のための幾何認識ネットワーク(GANDA)を提案する。
特に,まずソース領域からの補助的な深度監視を利用して,対象領域の深度予測を行い,構造・テクスチャのゆがみを実現する。
深度推定の他に、RGB-D画像から生成された点雲上の3次元トポロジーを明示的に利用して、ターゲット領域における座標色展開と擬似ラベル改善を行う。
さらに,対象領域における2次元分類器の改良を目的として,ソースからターゲットへのドメイン不変幾何適応を行い,2次元意味的および3次元幾何学的セグメンテーション結果を2領域に統一する。
GANDAは既存のUDAフレームワークのプラグインとプレイです。
その結果,GTA5->CityscapesおよびSynTHIA->Cityscapesにおいて,我々のモデルが現状よりも優れていることが示された。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Syn-to-Real Unsupervised Domain Adaptation for Indoor 3D Object Detection [50.448520056844885]
室内3次元物体検出における非教師なし領域適応のための新しいフレームワークを提案する。
合成データセット3D-FRONTから実世界のデータセットScanNetV2とSUN RGB-Dへの適応結果は、ソースオンリーベースラインよりも9.7%、9.1%のmAP25が顕著に改善されていることを示している。
論文 参考訳(メタデータ) (2024-06-17T08:18:41Z) - Visual Foundation Models Boost Cross-Modal Unsupervised Domain Adaptation for 3D Semantic Segmentation [17.875516787157018]
本研究では,2次元視覚基礎モデルから得られた知識を活用して,ラベルのない対象ドメインのより正確なラベルを生成する方法について検討する。
本手法は, 各種自律走行データセットを用いて評価し, 3次元セグメンテーションタスクにおいて有意な改善が得られた。
論文 参考訳(メタデータ) (2024-03-15T03:58:17Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Density-Insensitive Unsupervised Domain Adaption on 3D Object Detection [19.703181080679176]
ポイントクラウドからの3Dオブジェクト検出は、安全クリティカルな自動運転において不可欠である。
本稿では,密度依存性ドメインギャップに対処する密度依存性ドメイン適応フレームワークを提案する。
3つの広く採用されている3次元オブジェクト検出データセットの実験結果から,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-19T06:33:07Z) - CL3D: Unsupervised Domain Adaptation for Cross-LiDAR 3D Detection [16.021932740447966]
クロスLiDAR3D検出のためのドメイン適応は、生データ表現に大きなギャップがあるため困難である。
以上の課題を克服する、教師なしのドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2022-12-01T03:22:55Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。