論文の概要: XD-MAP: Cross-Modal Domain Adaptation using Semantic Parametric Mapping
- arxiv url: http://arxiv.org/abs/2601.14477v1
- Date: Tue, 20 Jan 2026 21:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.151896
- Title: XD-MAP: Cross-Modal Domain Adaptation using Semantic Parametric Mapping
- Title(参考訳): XD-MAP:セマンティックパラメトリックマッピングを用いたクロスモーダルドメイン適応
- Authors: Frank Bieder, Hendrik Königshof, Haohao Hu, Fabian Immel, Yinzhe Shen, Jan-Hendrik Pauls, Christoph Stiller,
- Abstract要約: 本稿では,センサ固有の知識を画像データセットからLiDARに転送する手法を提案する。
我々のXD-MAPは、カメラ画像上のニューラルネットワークからの検出を活用して意味的パラメトリックマップを作成する。
その結果,手動ラベリングを使わずにLiDARデータに対して高い性能を実現する手法の有効性が示された。
- 参考スコア(独自算出の注目度): 5.609281438287908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Until open-world foundation models match the performance of specialized approaches, the effectiveness of deep learning models remains heavily dependent on dataset availability. Training data must align not only with the target object categories but also with the sensor characteristics and modalities. To bridge the gap between available datasets and deployment domains, domain adaptation strategies are widely used. In this work, we propose a novel approach to transferring sensor-specific knowledge from an image dataset to LiDAR, an entirely different sensing domain. Our method XD-MAP leverages detections from a neural network on camera images to create a semantic parametric map. The map elements are modeled to produce pseudo labels in the target domain without any manual annotation effort. Unlike previous domain transfer approaches, our method does not require direct overlap between sensors and enables extending the angular perception range from a front-view camera to a full 360 view. On our large-scale road feature dataset, XD-MAP outperforms single shot baseline approaches by +19.5 mIoU for 2D semantic segmentation, +19.5 PQth for 2D panoptic segmentation, and +32.3 mIoU in 3D semantic segmentation. The results demonstrate the effectiveness of our approach achieving strong performance on LiDAR data without any manual labeling.
- Abstract(参考訳): オープンワールドファウンデーションモデルが特別なアプローチのパフォーマンスにマッチするまで、ディープラーニングモデルの有効性は、データセットの可用性に大きく依存します。
トレーニングデータは、対象のオブジェクトカテゴリだけでなく、センサーの特性やモダリティとも一致しなければならない。
利用可能なデータセットとデプロイメントドメインのギャップを埋めるために、ドメイン適応戦略が広く使用されている。
本研究では,センサ固有の知識を画像データセットから全く異なる知覚領域であるLiDARに転送する手法を提案する。
我々のXD-MAPは、カメラ画像上のニューラルネットワークからの検出を活用して意味的パラメトリックマップを作成する。
マップ要素は、手動のアノテーションを使わずに、ターゲットドメインで擬似ラベルを生成するようにモデル化されている。
従来のドメイン転送手法とは異なり、センサ間の直接重なりを必要とせず、前面カメラから全360度視野まで角知覚範囲を拡張できる。
我々の大規模道路特徴データセットでは、XD-MAPは2Dセマンティックセグメンテーションにおいて+19.5 mIoU、+19.5 PQth、+32.3 mIoUのシングルショットベースラインアプローチよりも優れている。
その結果,手動ラベリングを使わずにLiDARデータに対して高い性能を実現する手法の有効性が示された。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - CMDA: Cross-Modal and Domain Adversarial Adaptation for LiDAR-Based 3D
Object Detection [14.063365469339812]
LiDARベースの3Dオブジェクト検出法は、ソース(またはトレーニング)データ配布の外部のターゲットドメインにうまく一般化しないことが多い。
画像のモダリティから視覚的セマンティックキューを活用する,CMDA (unsupervised domain adaptation) と呼ばれる新しい手法を提案する。
また、自己学習に基づく学習戦略を導入し、モデルが逆向きに訓練され、ドメイン不変の機能を生成する。
論文 参考訳(メタデータ) (2024-03-06T14:12:38Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Cross-Modality Domain Adaptation for Freespace Detection: A Simple yet
Effective Baseline [21.197212665408262]
フリースペース検出は、カメラが捉えた画像の各ピクセルを、ドライビング可能または非駆動可能と分類することを目的としている。
我々はRGB画像と深度画像から生成された表面正規写像の両方を利用するクロスモダリティ領域適応フレームワークを開発した。
ソースドメイン(合成データ)とターゲットドメイン(実世界のデータ)のドメインギャップを埋めるため、選択的特徴アライメント(SFA)モジュールも提案する。
論文 参考訳(メタデータ) (2022-10-06T15:31:49Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - DESC: Domain Adaptation for Depth Estimation via Semantic Consistency [24.13837264978472]
単眼深度推定モデルの訓練のための領域適応手法を提案する。
セマンティックな予測と低レベルのエッジ機能を活用することで、ドメインギャップを埋める。
本手法は,単眼深度推定のための標準領域適応ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2020-09-03T10:54:05Z) - Complete & Label: A Domain Adaptation Approach to Semantic Segmentation
of LiDAR Point Clouds [49.47017280475232]
3次元点雲のセマンティックラベリングにおける教師なし領域適応問題について検討する。
セグメンテーションネットワークに渡す前に、基盤となる表面を復元するためにComplete と Label のアプローチを採用する。
回収された3D表面は標準領域として機能し、そこからセマンティックラベルが異なるLiDARセンサー間で転送される。
論文 参考訳(メタデータ) (2020-07-16T17:42:05Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。