論文の概要: Learning Geometric and Photometric Features from Panoramic LiDAR Scans for Outdoor Place Categorization
- arxiv url: http://arxiv.org/abs/2603.12663v1
- Date: Fri, 13 Mar 2026 05:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.913489
- Title: Learning Geometric and Photometric Features from Panoramic LiDAR Scans for Outdoor Place Categorization
- Title(参考訳): 屋外分類のためのパノラマLiDARスキャンからの幾何学的・測光的特徴の学習
- Authors: Kazuto Nakashima, Hojung Jung, Yuki Oto, Yumi Iwashita, Ryo Kurazume, Oscar Martinez Mozos,
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)を用いた屋外空間の分類手法を提案する。
CNNは3次元LiDARから得られる全方向の深度/反射像を入力とする。
マルチモーダルパノラマ3次元屋外(MPO)という大規模屋外空間データセットを構築した。
- 参考スコア(独自算出の注目度): 4.255191342050174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic place categorization, which is one of the essential tasks for autonomous robots and vehicles, allows them to have capabilities of self-decision and navigation in unfamiliar environments. In particular, outdoor places are more difficult targets than indoor ones due to perceptual variations, such as dynamic illuminance over twenty-four hours and occlusions by cars and pedestrians. This paper presents a novel method of categorizing outdoor places using convolutional neural networks (CNNs), which take omnidirectional depth/reflectance images obtained by 3D LiDARs as the inputs. First, we construct a large-scale outdoor place dataset named Multi-modal Panoramic 3D Outdoor (MPO) comprising two types of point clouds captured by two different LiDARs. They are labeled with six outdoor place categories: coast, forest, indoor/outdoor parking, residential area, and urban area. Second, we provide CNNs for LiDAR-based outdoor place categorization and evaluate our approach with the MPO dataset. Our results on the MPO dataset outperform traditional approaches and show the effectiveness in which we use both depth and reflectance modalities. To analyze our trained deep networks we visualize the learned features.
- Abstract(参考訳): セマンティック場所分類(Semantic place categorization)は、自律ロボットや車両にとって不可欠なタスクのひとつであり、不慣れな環境で自己決定とナビゲーションの能力を持つことができる。
特に屋外の場所は、24時間にわたる動的照度や車や歩行者による閉塞など、知覚的な変化により屋内の場所よりも困難なターゲットとなっている。
本稿では,3次元LiDARから得られる全方位深度/反射像を入力として,畳み込みニューラルネットワーク(CNN)を用いて屋外の場所を分類する手法を提案する。
まず,2つの異なるLiDARによって捕獲された2種類の点雲からなる多モードパノラマ3次元屋外(MPO)という大規模屋外空間データセットを構築した。
海岸、森林、屋内・屋外駐車場、住宅地、都市部の6つの屋外地区に指定されている。
第2に、LiDARに基づく屋外場所分類のためのCNNを提供し、MPOデータセットを用いて我々のアプローチを評価する。
その結果,MPOデータセットは従来の手法よりも優れており,奥行きと反射率の両面での有効性が示された。
トレーニングされたディープネットワークを分析するために、学習した機能を視覚化します。
関連論文リスト
- RAVEN: Resilient Aerial Navigation via Open-Set Semantic Memory and Behavior Adaptation [20.730528223747967]
RAVENは、非構造化屋外環境での空中セマンティックナビゲーションのための3Dメモリベースの行動ツリーフレームワークである。
空間的に一貫したセマンティックなボクセル線マップを永続記憶として使用し、長期計画を可能にし、純粋に反応性のある振る舞いを避ける。
RAVENは、シミュレーションのベースラインを85.25%上回り、屋外フィールドテストにおける空中ロボットへの展開を通じて実世界の適用性を実証している。
論文 参考訳(メタデータ) (2025-09-28T01:43:25Z) - Talk2PC: Enhancing 3D Visual Grounding through LiDAR and Radar Point Clouds Fusion for Autonomous Driving [39.60518561679198]
我々は,プロンプト誘導点雲センサの組み合わせのパラダイムに基づく,最初の屋外3次元視覚グラウンドモデルであるTPCNetを提案する。
実験により、TPCNetはTalk2RadarとTalk2Carの両方のデータセット上で最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2025-03-11T11:48:27Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Gait Recognition in Large-scale Free Environment via Single LiDAR [35.684257181154905]
深度を捉えるLiDARの能力は、ロボットの知覚にとって重要な要素であり、現実世界の歩行認識の可能性を秘めている。
本稿では,頑健な歩行認識のための階層型多表現特徴相互作用ネットワーク(HMRNet)を提案する。
LiDARに基づく歩行認識研究を容易にするため,大規模かつ制約のない歩行データセットであるFreeGaitを紹介した。
論文 参考訳(メタデータ) (2022-11-22T16:05:58Z) - Cirrus: A Long-range Bi-pattern LiDAR Dataset [35.87501129332217]
我々は、自律運転タスクのための新しい長距離二パターンLiDARパブリックデータセットであるCirrusを紹介する。
我々のプラットフォームには高解像度ビデオカメラと250メートルの有効範囲のLiDARセンサーが装備されている。
Cirrusでは、8つのカテゴリのオブジェクトが、有効範囲全体のLiDAR点雲に完全に注釈付けされている。
論文 参考訳(メタデータ) (2020-12-05T03:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。