論文の概要: 3DTTNet: Multimodal Fusion-Based 3D Traversable Terrain Modeling for Off-Road Environments
- arxiv url: http://arxiv.org/abs/2412.08195v2
- Date: Wed, 06 Aug 2025 14:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 15:43:07.721155
- Title: 3DTTNet: Multimodal Fusion-Based 3D Traversable Terrain Modeling for Off-Road Environments
- Title(参考訳): 3DTTNet:オフロード環境のためのマルチモーダル核融合に基づく3次元トラバーサブル地形モデリング
- Authors: Zitong Chen, Chao Sun, Shida Nie, Chen Min, Changjiu Ning, Haoyu Li, Bo Wang,
- Abstract要約: オフロード環境は、自動運転車にとって重要な課題である。
本稿では,セマンティックシーンの完了によって,横断可能な領域認識を実現する。
3DTTNetと呼ばれる新しいマルチモーダル手法が提案されている。
- 参考スコア(独自算出の注目度): 10.521569910467072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Off-road environments remain significant challenges for autonomous ground vehicles, due to the lack of structured roads and the presence of complex obstacles, such as uneven terrain, vegetation, and occlusions. Traditional perception algorithms, primarily designed for structured environments, often fail in unstructured scenarios. In this paper, traversable area recognition is achieved through semantic scene completion. A novel multimodal method, 3DTTNet, is proposed to generate dense traversable terrain estimations by integrating LiDAR point clouds with monocular images from a forward-facing perspective. By integrating multimodal data, environmental feature extraction is strengthened, which is crucial for accurate terrain modeling in complex terrains. Furthermore, RELLIS-OCC, a dataset with 3D traversable annotations, is introduced, incorporating geometric features such as step height, slope, and unevenness. Through a comprehensive analysis of vehicle obsta cle-crossing conditions and the incorporation of vehicle body structure constraints, four traversability cost labels are generated: lethal, medium-cost, low-cost, and free. Experimental results demonstrate that 3DTTNet outperforms the comparison approaches in 3D traversable area recognition, particularly in off-road environments with irregular geometries and partial occlusions. Specifically, 3DTTNet achieves a 42\% improvement in scene completion IoU compared to other models. The proposed framework is scalable and adaptable to various vehicle platforms, allowing for adjustments to occupancy grid parameters and the integration of advanced dynamic models for traversability cost estimation.
- Abstract(参考訳): オフロード環境は、構造化道路の欠如や、不均一な地形、植生、閉塞などの複雑な障害物が存在するため、自動運転車にとって重要な課題である。
従来の知覚アルゴリズムは、主に構造化された環境のために設計されており、しばしば非構造化のシナリオで失敗する。
本稿では,セマンティックシーンの完了によって,横断可能な領域認識を実現する。
3DTTNetは,LiDAR点雲を前方からのモノクロ画像と統合することにより,高密度な移動可能な地形推定を行う。
マルチモーダルデータの統合により環境特徴抽出が強化され,複雑な地形の正確な地形モデリングに不可欠である。
さらに、3Dトラバース可能なアノテーションを備えたデータセットであるRELLIS-OCCを導入し、ステップ高さ、傾斜、凹凸といった幾何学的特徴を取り入れた。
車体構造制約の包括的解析と車体構造制約の導入により、致死性、中コスト、低コスト、フリーの4つのトラバーサビリティコストラベルが生成される。
実験により、3DTTNetは、特に不規則なジオメトリと部分閉塞を有するオフロード環境において、3Dトラバース可能な領域認識における比較手法よりも優れていることが示された。
具体的には、3DTTNetは、他のモデルと比較して、シーン補完IoUの42倍の改善を実現している。
提案したフレームワークは、様々な車両プラットフォームにスケーラブルで適応可能であり、グリッドパラメータの占有の調整や、トラバーサビリティコスト推定のための高度な動的モデルの統合を可能にする。
関連論文リスト
- Boosting Multi-View Indoor 3D Object Detection via Adaptive 3D Volume Construction [10.569056109735735]
本研究では,適応型3次元ボリューム構造に基づく室内3次元物体検出フレームワークであるSGCDetを提案する。
各画像の適応領域に幾何学的・文脈的情報を統合するための幾何学的・文脈的アグリゲーションモジュールを導入する。
SGCDetは、ScanNet、ScanNet200、ARKitScenesデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-24T11:58:01Z) - Move to Understand a 3D Scene: Bridging Visual Grounding and Exploration for Efficient and Versatile Embodied Navigation [54.04601077224252]
身近なシーン理解には、視覚空間情報の理解だけでなく、3D物理世界における次の探索場所の決定も必要である。
アンダーラインテキストbf3D視覚言語学習は、エンボディエージェントが環境を効果的に探索し理解することを可能にする。
モデルの汎用性は、カテゴリ、言語記述、参照イメージなど、多様な入力モダリティを使ったナビゲーションを可能にする。
論文 参考訳(メタデータ) (2025-07-05T14:15:52Z) - Implicit 3D scene reconstruction using deep learning towards efficient collision understanding in autonomous driving [0.0]
本研究では,LiDARデータとディープニューラルネットワークを利用して静的符号付き距離関数(SDF)マップを構築する学習型3Dシーン再構築手法を開発した。
予備実験の結果,衝突検出性能は特に混雑・動環境において著しく向上することが示された。
論文 参考訳(メタデータ) (2025-06-18T18:42:04Z) - GeoDrive: 3D Geometry-Informed Driving World Model with Precise Action Control [50.67481583744243]
実世界モデルにロバストな3次元形状条件を明示的に統合したGeoDriveを紹介する。
車両の位置を編集することでレンダリングを強化するため,トレーニング中の動的編集モジュールを提案する。
動作精度と空間認識の両面で既存のモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-28T14:46:51Z) - Highly Accurate and Diverse Traffic Data: The DeepScenario Open 3D Dataset [25.244956737443527]
我々は,新しいモノクラーカメラドローン追跡パイプラインによって得られた6自由度境界ボックス軌道のDeepScenario Open 3Dデータセット(DSC3D)を紹介した。
当社のデータセットには、14種類のトラフィック参加者の175,000以上のトラジェクトリが含まれており、多様性とスケールの点で既存のデータセットを大きく上回っている。
動作予測,動作計画,シナリオマイニング,生成反応性トラフィックエージェントなど,複数のアプリケーションにまたがる実用性を実証する。
論文 参考訳(メタデータ) (2025-04-24T08:43:48Z) - PFSD: A Multi-Modal Pedestrian-Focus Scene Dataset for Rich Tasks in Semi-Structured Environments [73.80718037070773]
本稿では, 半構造化シーンに, nuScenesの形式を付加したマルチモーダルなPedestrian-Focused Sceneデータセットを提案する。
また,密集・隠蔽シナリオにおける歩行者検出のためのHMFN(Hybrid Multi-Scale Fusion Network)を提案する。
論文 参考訳(メタデータ) (2025-02-21T09:57:53Z) - AdaOcc: Adaptive-Resolution Occupancy Prediction [20.0994984349065]
AdaOccは適応分解能でマルチモーダルな予測手法である。
提案手法は,オブジェクト中心の3次元再構成と全体的占有予測を一つのフレームワークに統合する。
近距離シナリオでは、以前のベースラインを13%以上、ハウスドルフ距離を40%以上上回る。
論文 参考訳(メタデータ) (2024-08-24T03:46:25Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - MV-DeepSDF: Implicit Modeling with Multi-Sweep Point Clouds for 3D
Vehicle Reconstruction in Autonomous Driving [25.088617195439344]
我々は,マルチスウィープ点雲からの最適符号距離関数(SDF)形状表現を推定するMV-DeepSDFと呼ばれる新しいフレームワークを提案する。
2つの実世界の自律走行データセットについて徹底的な実験を行う。
論文 参考訳(メタデータ) (2023-08-21T15:48:15Z) - METAVerse: Meta-Learning Traversability Cost Map for Off-Road Navigation [5.036362492608702]
本稿では,地形変動を正確に予測するグローバルモデル学習用メタラーニングフレームワークMETAVerseを提案する。
トラバーサビリティ予測ネットワークをトレーニングし、疎いLiDAR点雲から高密度で連続的なコストマップを生成する。
近年の交流体験を生かして,ネットワークをローカル環境に迅速に適応させるために,オンライン適応を行う。
論文 参考訳(メタデータ) (2023-07-26T06:58:19Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Uncertainty-aware Perception Models for Off-road Autonomous Unmanned
Ground Vehicles [6.2574402913714575]
オフロード自律無人地上車両(UGV)は、遠隔地で重要な物資を供給するために軍用および商業用途のために開発されている。
現在のデータセットは、季節、場所、セマンティッククラス、および日時における多様性の欠如に対する、オフロード自律ナビゲーションのための知覚モデルのトレーニングに使用されています。
本研究では,複数のデータセットを組み合わせてセグメンテーションに基づく環境認識モデルを学習する方法について検討する。
我々は,不確実性を捉えるためにモデルをトレーニングすることで,モデルの性能を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2022-09-22T15:59:33Z) - Decentralized Vehicle Coordination: The Berkeley DeepDrive Drone Dataset and Consensus-Based Models [76.32775745488073]
本研究では,非構造環境における動作計画の研究を目的とした,新しいデータセットとモデリングフレームワークを提案する。
コンセンサスに基づくモデリング手法により、データセットで観測された優先順位の出現を効果的に説明できることを実証する。
論文 参考訳(メタデータ) (2022-09-19T05:06:57Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Reconfigurable Voxels: A New Representation for LiDAR-Based Point Clouds [76.52448276587707]
本稿では,3次元点群から表現を構成する新しい手法であるReconfigurable Voxelsを提案する。
具体的には,各地区を一定数のボクセルで適応的にカバーするランダムウォーク方式を考案する。
この手法は,特に疎水領域において,ボクセル特性の安定性を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-04-06T15:07:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。