論文の概要: Semantic Scene Completion Based 3D Traversability Estimation for Off-Road Terrains
- arxiv url: http://arxiv.org/abs/2412.08195v1
- Date: Wed, 11 Dec 2024 08:36:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:23.803488
- Title: Semantic Scene Completion Based 3D Traversability Estimation for Off-Road Terrains
- Title(参考訳): セマンティック・シーン・コンプリートに基づくオフロード地形の3次元トレーサビリティ推定
- Authors: Zitong Chen, Chao Sun, Shida Nie, Chen Min, Changjiu Ning, Haoyu Li, Bo Wang,
- Abstract要約: オフロード環境は、自動運転車にとって重要な課題である。
主に構造化された環境のために設計された伝統的な知覚アルゴリズムは、しばしばこれらの条件下で失敗する。
本稿では, ORDformer を用いて, 前向きの視点から, 高密度の移動可能な占有率予測を行う。
- 参考スコア(独自算出の注目度): 10.521569910467072
- License:
- Abstract: Off-road environments present significant challenges for autonomous ground vehicles due to the absence of structured roads and the presence of complex obstacles, such as uneven terrain, vegetation, and occlusions. Traditional perception algorithms, designed primarily for structured environments, often fail under these conditions, leading to inaccurate traversability estimations. In this paper, ORDformer, a novel multimodal method that combines LiDAR point clouds with monocular images, is proposed to generate dense traversable occupancy predictions from a forward-facing perspective. By integrating multimodal data, environmental feature extraction is enhanced, which is crucial for accurate occupancy estimation in complex terrains. Furthermore, RELLIS-OCC, a dataset with 3D traversable occupancy annotations, is introduced, incorporating geometric features such as step height, slope, and unevenness. Through a comprehensive analysis of vehicle obstacle-crossing conditions and the incorporation of vehicle body structure constraints, four traversability cost labels are generated: lethal, medium-cost, low-cost, and free. Experimental results demonstrate that ORDformer outperforms existing approaches in 3D traversable area recognition, particularly in off-road environments with irregular geometries and partial occlusions. Specifically, ORDformer achieves over a 20\% improvement in scene completion IoU compared to other models. The proposed framework is scalable and adaptable to various vehicle platforms, allowing for adjustments to occupancy grid parameters and the integration of advanced dynamic models for traversability cost estimation.
- Abstract(参考訳): オフロード環境は、構造道路が無く、不均一な地形、植生、閉塞などの複雑な障害物が存在するため、自動運転車にとって重要な課題である。
主に構造化された環境のために設計された伝統的な知覚アルゴリズムは、しばしばこれらの条件下で失敗し、不正確なトラバーサビリティ推定をもたらす。
本稿では,LiDAR点雲と単眼画像を組み合わせた新しいマルチモーダル手法であるORDformerを提案する。
マルチモーダルデータを統合することにより、複雑な地形における正確な占有率推定に不可欠な環境特徴抽出が強化される。
さらに、3Dトラバース可能な占有アノテーションを備えたデータセットであるRELLIS-OCCを導入し、ステップ高さ、傾斜、凹凸といった幾何学的特徴を取り入れた。
車両の障害物交差条件の包括的解析と車体構造制約の導入により、致死性、中コスト、低コスト、フリーの4つのトラバーサビリティコストラベルが生成される。
実験により,ORDformerは3次元トラバーサブル領域認識において,特に不規則なジオメトリと部分閉塞を有するオフロード環境において,既存の手法よりも優れた性能を示した。
具体的には、ORDformerは他のモデルと比較して、シーン補完IoUの20倍以上の改善を実現している。
提案したフレームワークは、様々な車両プラットフォームにスケーラブルで適応可能であり、グリッドパラメータの占有の調整や、トラバーサビリティコスト推定のための高度な動的モデルの統合を可能にする。
関連論文リスト
- AdaOcc: Adaptive-Resolution Occupancy Prediction [20.0994984349065]
AdaOccは適応分解能でマルチモーダルな予測手法である。
提案手法は,オブジェクト中心の3次元再構成と全体的占有予測を一つのフレームワークに統合する。
近距離シナリオでは、以前のベースラインを13%以上、ハウスドルフ距離を40%以上上回る。
論文 参考訳(メタデータ) (2024-08-24T03:46:25Z) - InScope: A New Real-world 3D Infrastructure-side Collaborative Perception Dataset for Open Traffic Scenarios [13.821143687548494]
本稿では,新しい3次元インフラ側協調認識データセットについて紹介する。
InScopeは303の追跡軌道と187,787個の3D境界ボックスで20日間の捕獲期間をカプセル化している。
論文 参考訳(メタデータ) (2024-07-31T13:11:14Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - MV-DeepSDF: Implicit Modeling with Multi-Sweep Point Clouds for 3D
Vehicle Reconstruction in Autonomous Driving [25.088617195439344]
我々は,マルチスウィープ点雲からの最適符号距離関数(SDF)形状表現を推定するMV-DeepSDFと呼ばれる新しいフレームワークを提案する。
2つの実世界の自律走行データセットについて徹底的な実験を行う。
論文 参考訳(メタデータ) (2023-08-21T15:48:15Z) - METAVerse: Meta-Learning Traversability Cost Map for Off-Road Navigation [5.036362492608702]
本稿では,地形変動を正確に予測するグローバルモデル学習用メタラーニングフレームワークMETAVerseを提案する。
トラバーサビリティ予測ネットワークをトレーニングし、疎いLiDAR点雲から高密度で連続的なコストマップを生成する。
近年の交流体験を生かして,ネットワークをローカル環境に迅速に適応させるために,オンライン適応を行う。
論文 参考訳(メタデータ) (2023-07-26T06:58:19Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Uncertainty-aware Perception Models for Off-road Autonomous Unmanned
Ground Vehicles [6.2574402913714575]
オフロード自律無人地上車両(UGV)は、遠隔地で重要な物資を供給するために軍用および商業用途のために開発されている。
現在のデータセットは、季節、場所、セマンティッククラス、および日時における多様性の欠如に対する、オフロード自律ナビゲーションのための知覚モデルのトレーニングに使用されています。
本研究では,複数のデータセットを組み合わせてセグメンテーションに基づく環境認識モデルを学習する方法について検討する。
我々は,不確実性を捉えるためにモデルをトレーニングすることで,モデルの性能を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2022-09-22T15:59:33Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Reconfigurable Voxels: A New Representation for LiDAR-Based Point Clouds [76.52448276587707]
本稿では,3次元点群から表現を構成する新しい手法であるReconfigurable Voxelsを提案する。
具体的には,各地区を一定数のボクセルで適応的にカバーするランダムウォーク方式を考案する。
この手法は,特に疎水領域において,ボクセル特性の安定性を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-04-06T15:07:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。