論文の概要: Multimodal HD Mapping for Intersections by Intelligent Roadside Units
- arxiv url: http://arxiv.org/abs/2507.08903v1
- Date: Fri, 11 Jul 2025 08:45:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.768627
- Title: Multimodal HD Mapping for Intersections by Intelligent Roadside Units
- Title(参考訳): インテリジェント道路ユニットによる交差点のマルチモーダルHDマッピング
- Authors: Zhongzhang Chen, Miao Fan, Shengtong Xu, Mengmeng Yang, Kun Jiang, Xiangzeng Liu, Haoyi Xiong,
- Abstract要約: 複素交叉のハイデフィニション(HD)意味マッピングは、車両ベースのアプローチに重大な課題をもたらす。
本稿では,高度インテリジェントロードサイドユニット(IRU)を活用したカメラ-LiDAR融合フレームワークを提案する。
本稿では,V2X-Seqデータセットの体系的拡張とアノテーションを通じて開発された包括的データセットであるRS-seqを提案する。
- 参考スコア(独自算出の注目度): 21.3691460430126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-definition (HD) semantic mapping of complex intersections poses significant challenges for traditional vehicle-based approaches due to occlusions and limited perspectives. This paper introduces a novel camera-LiDAR fusion framework that leverages elevated intelligent roadside units (IRUs). Additionally, we present RS-seq, a comprehensive dataset developed through the systematic enhancement and annotation of the V2X-Seq dataset. RS-seq includes precisely labelled camera imagery and LiDAR point clouds collected from roadside installations, along with vectorized maps for seven intersections annotated with detailed features such as lane dividers, pedestrian crossings, and stop lines. This dataset facilitates the systematic investigation of cross-modal complementarity for HD map generation using IRU data. The proposed fusion framework employs a two-stage process that integrates modality-specific feature extraction and cross-modal semantic integration, capitalizing on camera high-resolution texture and precise geometric data from LiDAR. Quantitative evaluations using the RS-seq dataset demonstrate that our multimodal approach consistently surpasses unimodal methods. Specifically, compared to unimodal baselines evaluated on the RS-seq dataset, the multimodal approach improves the mean Intersection-over-Union (mIoU) for semantic segmentation by 4\% over the image-only results and 18\% over the point cloud-only results. This study establishes a baseline methodology for IRU-based HD semantic mapping and provides a valuable dataset for future research in infrastructure-assisted autonomous driving systems.
- Abstract(参考訳): 複素交叉の高精細(HD)セマンティックマッピングは、閉塞と限定的な視点により、従来の車両ベースのアプローチに重大な課題をもたらす。
本稿では,高度インテリジェントロードサイドユニット(IRU)を活用したカメラ-LiDAR融合フレームワークを提案する。
さらに,V2X-Seqデータセットの体系的拡張とアノテーションによって開発された包括的データセットであるRS-seqを提案する。
RS-seqは、道路沿いの施設から収集された正確なラベル付きカメラ画像とLiDAR点雲と、車線分割、歩行者横断、ストップラインなどの詳細な特徴を付加した7つの交差点用のベクトルマップを含む。
このデータセットは、IRUデータを用いたHDマップ生成のためのクロスモーダル補完性の体系的な研究を促進する。
提案する融合フレームワークは、カメラの高解像度テクスチャとLiDARからの正確な幾何データを利用して、モダリティ固有の特徴抽出とクロスモーダルセマンティック統合を統合した2段階のプロセスを利用する。
RS-seqデータセットを用いた定量的評価は、我々のマルチモーダルアプローチがユニモーダル法を一貫して上回っていることを示す。
特に、RS-seqデータセットで評価されたユニモーダルベースラインと比較して、マルチモーダルアプローチは、セマンティックセグメンテーションの平均Intersection-over-Union(mIoU)を画像のみの結果に対して4\%、ポイントクラウドのみの結果に対して18\%改善する。
本研究は、IRUに基づくHDセマンティックマッピングのベースライン手法を確立し、インフラ支援自動運転システムにおける将来の研究に有用なデータセットを提供する。
関連論文リスト
- Cross-Sequence Semi-Supervised Learning for Multi-Parametric MRI-Based Visual Pathway Delineation [18.101169568060786]
本稿では,VP記述のための新しい半教師付き多パラメータ特徴分解フレームワークを提案する。
具体的には、相関制約付き特徴分解(CFD)は複雑な相互系列関係を扱うように設計されている。
2つのパブリックデータセットと1つの社内マルチシェル拡散MRI(MDM)データセットを用いて、我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2025-05-26T09:18:58Z) - Cross-Modal Bidirectional Interaction Model for Referring Remote Sensing Image Segmentation [50.433911327489554]
リモートセンシング画像セグメンテーション(RRSIS)の目標は、参照式によって識別された対象オブジェクトの画素レベルマスクを生成することである。
上記の課題に対処するため、クロスモーダル双方向相互作用モデル(CroBIM)と呼ばれる新しいRRSISフレームワークが提案されている。
RRSISの研究をさらに推し進めるために、52,472個の画像言語ラベル三重項からなる新しい大規模ベンチマークデータセットRISBenchを構築した。
論文 参考訳(メタデータ) (2024-10-11T08:28:04Z) - UdeerLID+: Integrating LiDAR, Image, and Relative Depth with Semi-Supervised [12.440461420762265]
道路分割は自動運転システムにとって重要な課題である。
我々の研究は、LiDARポイントクラウドデータ、ビジュアルイメージ、および相対深度マップを統合する革新的なアプローチを導入している。
主な課題の1つは、大規模で正確にラベル付けされたデータセットの不足である。
論文 参考訳(メタデータ) (2024-09-10T03:57:30Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Transformer Meets Convolution: A Bilateral Awareness Net-work for
Semantic Segmentation of Very Fine Resolution Ur-ban Scene Images [6.460167724233707]
本稿では,依存経路とテクスチャパスを含む相互認知ネットワーク(BANet)を提案する。
BANetは、VFR画像の長距離関係と細かな詳細をキャプチャする。
3つの大規模都市景観画像セグメンテーションデータセット(ISPRS Vaihingen データセット、ISPRS Potsdam データセット、UAVid データセット)で実施された実験は、BANetの有効性を実証している。
論文 参考訳(メタデータ) (2021-06-23T13:57:36Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。