論文の概要: RELLIS-3D Dataset: Data, Benchmarks and Analysis
- arxiv url: http://arxiv.org/abs/2011.12954v4
- Date: Wed, 25 May 2022 15:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:30:43.457475
- Title: RELLIS-3D Dataset: Data, Benchmarks and Analysis
- Title(参考訳): RELLIS-3Dデータセット:データ、ベンチマーク、分析
- Authors: Peng Jiang, Philip Osteen, Maggie Wigness, Srikanth Saripalli
- Abstract要約: RELLIS-3Dはオフロード環境で収集されたマルチモーダルデータセットである。
データはテキサスA&M大学のRellis Campusで収集されました。
- 参考スコア(独自算出の注目度): 16.803548871633957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic scene understanding is crucial for robust and safe autonomous
navigation, particularly so in off-road environments. Recent deep learning
advances for 3D semantic segmentation rely heavily on large sets of training
data, however existing autonomy datasets either represent urban environments or
lack multimodal off-road data. We fill this gap with RELLIS-3D, a multimodal
dataset collected in an off-road environment, which contains annotations for
13,556 LiDAR scans and 6,235 images. The data was collected on the Rellis
Campus of Texas A\&M University and presents challenges to existing algorithms
related to class imbalance and environmental topography. Additionally, we
evaluate the current state-of-the-art deep learning semantic segmentation
models on this dataset. Experimental results show that RELLIS-3D presents
challenges for algorithms designed for segmentation in urban environments. This
novel dataset provides the resources needed by researchers to continue to
develop more advanced algorithms and investigate new research directions to
enhance autonomous navigation in off-road environments. RELLIS-3D is available
at https://github.com/unmannedlab/RELLIS-3D
- Abstract(参考訳): セマンティックなシーン理解は、特にオフロード環境では、堅牢で安全な自律ナビゲーションに不可欠である。
最近の3Dセマンティックセグメンテーションのディープラーニングの進歩は、大規模なトレーニングデータに大きく依存しているが、既存の自律データセットは都市環境を表すか、マルチモーダルオフロードデータを欠いている。
これはオフロード環境で収集されたマルチモーダルデータセットで、13,556のlidarスキャンと6,235の画像に対するアノテーションを含んでいる。
データはテキサスA\&M大学のリリスキャンパスで収集され、クラス不均衡と環境地形に関する既存のアルゴリズムに課題を提示している。
さらに,このデータセット上でのディープラーニング意味セグメンテーションモデルの評価を行った。
RELLIS-3Dは都市環境におけるセグメンテーションのためのアルゴリズムの課題を示す。
この新しいデータセットは、研究者がより高度なアルゴリズムを開発し続けるために必要なリソースを提供し、オフロード環境における自律的なナビゲーションを強化するための新しい研究方向を調査する。
RELLIS-3Dはhttps://github.com/unmannedlab/RELLIS-3Dで利用可能である。
関連論文リスト
- Are We Ready for Real-Time LiDAR Semantic Segmentation in Autonomous Driving? [42.348499880894686]
シーンセマンティックセグメンテーションは、3次元空間データを専門のディープニューラルネットワークと直接統合することで実現できる。
本研究では, NVIDIA Jetson プラットフォーム上でのリソース制約推論の性能と性能を解析し, 様々な3次元セマンティックセマンティックセマンティクス手法について検討する。
論文 参考訳(メタデータ) (2024-10-10T20:47:33Z) - UdeerLID+: Integrating LiDAR, Image, and Relative Depth with Semi-Supervised [12.440461420762265]
道路分割は自動運転システムにとって重要な課題である。
我々の研究は、LiDARポイントクラウドデータ、ビジュアルイメージ、および相対深度マップを統合する革新的なアプローチを導入している。
主な課題の1つは、大規模で正確にラベル付けされたデータセットの不足である。
論文 参考訳(メタデータ) (2024-09-10T03:57:30Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - H3D: Benchmark on Semantic Segmentation of High-Resolution 3D Point
Clouds and textured Meshes from UAV LiDAR and Multi-View-Stereo [4.263987603222371]
本稿では,3つの方法でユニークな3次元データセットを提案する。
ヘシグハイム(ドイツ語: Hessigheim, H3D)は、ドイツの都市。
片手で3次元データ分析の分野での研究を促進するとともに、新しいアプローチの評価とランク付けを目的としている。
論文 参考訳(メタデータ) (2021-02-10T09:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。