論文の概要: ROD: RGB-Only Fast and Efficient Off-road Freespace Detection
- arxiv url: http://arxiv.org/abs/2508.08697v1
- Date: Tue, 12 Aug 2025 07:41:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.333413
- Title: ROD: RGB-Only Fast and Efficient Off-road Freespace Detection
- Title(参考訳): ROD: RGBのみの高速かつ効率的なオフロードフリースペース検出
- Authors: Tong Sun, Hongliang Ye, Jilin Mei, Liang Chen, Fangzhou Zhao, Leiqiang Zong, Yu Hu,
- Abstract要約: オフロード自由空間検出は、移動可能な領域の境界がぼやけているため、オンロードのシナリオよりも難しい。
従来のSOTA(State-of-the-art)手法では、RGB画像とLiDARデータのマルチモーダル融合が採用されている。
本稿では, オフロード自由空間検出のための新しい RGB のみのアプローチである ROD について述べる。
- 参考スコア(独自算出の注目度): 15.62982857392494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Off-road freespace detection is more challenging than on-road scenarios because of the blurred boundaries of traversable areas. Previous state-of-the-art (SOTA) methods employ multi-modal fusion of RGB images and LiDAR data. However, due to the significant increase in inference time when calculating surface normal maps from LiDAR data, multi-modal methods are not suitable for real-time applications, particularly in real-world scenarios where higher FPS is required compared to slow navigation. This paper presents a novel RGB-only approach for off-road freespace detection, named ROD, eliminating the reliance on LiDAR data and its computational demands. Specifically, we utilize a pre-trained Vision Transformer (ViT) to extract rich features from RGB images. Additionally, we design a lightweight yet efficient decoder, which together improve both precision and inference speed. ROD establishes a new SOTA on ORFD and RELLIS-3D datasets, as well as an inference speed of 50 FPS, significantly outperforming prior models.
- Abstract(参考訳): オフロード自由空間検出は、移動可能な領域の境界がぼやけているため、オンロードのシナリオよりも難しい。
従来のSOTA(State-of-the-art)手法では、RGB画像とLiDARデータのマルチモーダル融合が採用されている。
しかし、LiDARデータから表面正規写像を計算する場合、推測時間が大幅に増加するため、マルチモーダル法はリアルタイムアプリケーションには適さない。
本稿では, オフロード自由空間検出のための新しいRGBのみのアプローチ, RODについて述べる。
具体的には、事前訓練された視覚変換器(ViT)を用いて、RGB画像からリッチな特徴を抽出する。
さらに,高速かつ高精度なデコーダを設計し,精度と推論速度を両立させる。
RODは、ORFDとRELLIS-3Dデータセットに新たなSOTAを確立し、推論速度は50FPSで、以前のモデルよりも大幅に向上した。
関連論文リスト
- RASMD: RGB And SWIR Multispectral Driving Dataset for Robust Perception in Adverse Conditions [0.3141085922386211]
短波長赤外線(SWIR)イメージングは、NIRとLWIRに対していくつかの利点がある。
現在の自律走行アルゴリズムは可視光スペクトルに大きく依存しており、悪条件下での性能劣化を招きやすい。
RGB と SWIR のマルチスペクトル駆動データセットを導入し,RGB-SWIR 画像ペアの同期化と空間整合化を実現した。
論文 参考訳(メタデータ) (2025-04-10T09:54:57Z) - Bringing RGB and IR Together: Hierarchical Multi-Modal Enhancement for Robust Transmission Line Detection [67.02804741856512]
高速かつ高精度なTL検出のために,RGBとIRデータを統合したHMMEN(Hierarchical Multi-Modal Enhancement Network)を提案する。
提案手法では,(1)階層的RGBおよびIR特徴写像を大まかに融合・拡張するMMEB,(2)デコーダ出力とIR特徴写像の不整合を変形可能な畳み込みを利用して補正するFAB,の2つの重要な構成要素を紹介する。
論文 参考訳(メタデータ) (2025-01-25T06:21:06Z) - IRisPath: Enhancing Costmap for Off-Road Navigation with Robust IR-RGB Fusion for Improved Day and Night Traversability [2.21687743334279]
従来の道路上での自律的な手法はダイナミックな地形に苦しむため、オフロード環境では車両の制御が貧弱になる。
近年の深層学習モデルでは、知覚センサと審美的フィードバックを併用して、そのような地形のナビゲーションを行っている。
本研究では,熱・RGB画像を用いて動的気象・光条件に対する堅牢性を実現するマルチモーダル核融合ネットワーク「IRisPath」を提案する。
論文 参考訳(メタデータ) (2024-12-04T09:53:09Z) - Blurred LiDAR for Sharper 3D: Robust Handheld 3D Scanning with Diffuse LiDAR and RGB [12.38882701862349]
3D表面の再構成は、仮想現実、ロボット工学、モバイルスキャンの応用において不可欠である。
RGBベースの再構築は、低テクスチャ、低照度、低アルベドシーンでしばしば失敗する。
我々は、拡散フラッシュを出力する代替のLiDARクラスを提案する。
論文 参考訳(メタデータ) (2024-11-29T05:01:23Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Self-Aligning Depth-regularized Radiance Fields for Asynchronous RGB-D Sequences [12.799443250845224]
タイムスタンプを$rm SE(3)$要素にマッピングする暗黙のネットワークである。
提案アルゴリズムは,(1)時間的関数フィッティング,(2)放射場ブートストレッピング,(3)結合ポーズ誤差補償,および放射場改良の3段階からなる。
また,ドローンによってキャプチャされた実世界の非同期RGB-Dシーケンスに対して,定性的に改善された結果を示す。
論文 参考訳(メタデータ) (2022-11-14T15:37:27Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Pseudo-LiDAR Based Road Detection [5.9106199000537645]
推論時にのみRGBが入力となる新しい道路検出手法を提案する。
深度推定を用いた擬似LiDARを利用して,RGBと学習深度情報を融合した特徴融合ネットワークを提案する。
提案手法は, KITTI と R2D の2つのベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-28T11:21:42Z) - DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection [104.50425501764806]
ライトフィールドサリエンシー検出のための汎用性の高いアプリケーションを可能にする大規模なデータセットを紹介します。
本論文では,フォカルストリームとRGBストリームからなる非対称2ストリームモデルを提案する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2020-12-30T11:53:27Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。