論文の概要: SemRaFiner: Panoptic Segmentation in Sparse and Noisy Radar Point Clouds
- arxiv url: http://arxiv.org/abs/2507.06906v1
- Date: Wed, 09 Jul 2025 14:45:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.627438
- Title: SemRaFiner: Panoptic Segmentation in Sparse and Noisy Radar Point Clouds
- Title(参考訳): SemRaFiner: スパースおよびノイズレーダ点雲におけるパノプティカルセグメンテーション
- Authors: Matthias Zeller, Daniel Casado Herraez, Bengisu Ayan, Jens Behley, Michael Heidingsfeld, Cyrill Stachniss,
- Abstract要約: スパースレーダ点雲における汎視的セグメンテーションの問題に対処する。
私たちのアプローチはSemRaFinerと呼ばれ、スパースレーダーポイント雲の密度の変化を考慮に入れています。
実験の結果,本手法はレーダ方式のパノプティカルセグメンテーションにおいて,最先端の手法よりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 23.935019339778236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic scene understanding, including the perception and classification of moving agents, is essential to enabling safe and robust driving behaviours of autonomous vehicles. Cameras and LiDARs are commonly used for semantic scene understanding. However, both sensor modalities face limitations in adverse weather and usually do not provide motion information. Radar sensors overcome these limitations and directly offer information about moving agents by measuring the Doppler velocity, but the measurements are comparably sparse and noisy. In this paper, we address the problem of panoptic segmentation in sparse radar point clouds to enhance scene understanding. Our approach, called SemRaFiner, accounts for changing density in sparse radar point clouds and optimizes the feature extraction to improve accuracy. Furthermore, we propose an optimized training procedure to refine instance assignments by incorporating a dedicated data augmentation. Our experiments suggest that our approach outperforms state-of-the-art methods for radar-based panoptic segmentation.
- Abstract(参考訳): 移動エージェントの認識や分類を含むセマンティックなシーン理解は、自動運転車の安全で堅牢な運転行動を可能にするために不可欠である。
カメラとLiDARは、セマンティックシーンの理解に一般的に使用される。
しかし、どちらのセンサーも悪天候では限界に直面し、通常、動き情報を提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を計測することで移動剤に関する情報を直接提供しますが、測定はまばらでうるさいです。
本稿では,スパースレーダ点雲におけるパノプティカルセグメンテーションの問題に対処し,シーン理解を強化する。
我々のアプローチはSemRaFinerと呼ばれ、スパースレーダーポイント雲の密度を変化させ、特徴抽出を最適化して精度を向上させる。
さらに,専用データ拡張を組み込むことで,インスタンス割り当てを洗練するための最適化されたトレーニング手順を提案する。
実験の結果,本手法はレーダ方式のパノプティカルセグメンテーションにおいて,最先端の手法よりも優れていたことが示唆された。
関連論文リスト
- Radar Velocity Transformer: Single-scan Moving Object Segmentation in Noisy Radar Point Clouds [23.59980120024823]
本稿では,ノイズの多いレーダ点雲における物体分割の移動問題に取り組む。
スパースレーダスキャンにおける単一走査移動物体セグメンテーションを高精度に行うためのトランスフォーマーに基づく新しい手法を開発した。
我々のネットワークはセンサのフレームレートよりも高速に動作し、単一走査レーダデータのみを用いてより優れたセグメンテーション結果を示す。
論文 参考訳(メタデータ) (2025-07-04T10:39:13Z) - Radar Tracker: Moving Instance Tracking in Sparse and Noisy Radar Point Clouds [25.36192517603375]
我々は、シーン解釈を強化するために、スパースレーダポイント雲における移動インスタンス追跡に対処する。
本稿では,時間的オフセット予測を取り入れた学習型レーダトラッカーを提案する。
提案手法は,RadarScenesデータセットの移動インスタンス追跡ベンチマークの性能向上を示す。
論文 参考訳(メタデータ) (2025-07-04T09:57:28Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View
Radar Semantic Segmentation [21.72892413572166]
本稿では,レーダデータの多入力融合を用いたレーダシーンのセマンティックセマンティックセマンティクスへの新しいアプローチを提案する。
提案手法であるTransRadarは,CARRADAとRADIalのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-10-03T17:59:05Z) - Radar Instance Transformer: Reliable Moving Instance Segmentation in
Sparse Radar Point Clouds [24.78323023852578]
LiDARとカメラはシーンの解釈を強化するが、悪天候下では直接の動作情報や顔の制限は提供しない。
レーダーセンサーはこれらの制限を克服し、ドップラー速度を提供し、動的物体の直接情報を提供する。
私たちのRadar Instance Transformerは、ニューラルネットワークを介して集約されたスキャンを渡すことなく、現在のレーダースキャンを時間情報で強化します。
論文 参考訳(メタデータ) (2023-09-28T13:37:30Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。