論文の概要: Panoptic nuScenes: A Large-Scale Benchmark for LiDAR Panoptic
Segmentation and Tracking
- arxiv url: http://arxiv.org/abs/2109.03805v2
- Date: Fri, 10 Sep 2021 05:10:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:50:49.622021
- Title: Panoptic nuScenes: A Large-Scale Benchmark for LiDAR Panoptic
Segmentation and Tracking
- Title(参考訳): Panoptic nuScenes: LiDARのPanoptic Segmentation and Trackingのための大規模ベンチマーク
- Authors: Whye Kit Fong, Rohit Mohan, Juana Valeria Hurtado, Lubing Zhou, Holger
Caesar, Oscar Beijbom, and Abhinav Valada
- Abstract要約: 一般的なnuScenesデータセットを拡張した大規模なPanoptic nuScenesベンチマークデータセットを紹介した。
パン光学追跡のための既存のメトリクスの欠点を分析し、新しいインスタンス中心のPATメトリクスを提案する。
この拡張により、動的な都市環境のシーン理解のための新しい手法の研究が加速すると考えている。
- 参考スコア(独自算出の注目度): 11.950994311766898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic scene understanding and tracking of dynamic agents are essential for
robots and automated vehicles to navigate in urban environments. As LiDARs
provide accurate illumination-independent geometric depictions of the scene,
performing these tasks using LiDAR point clouds provides reliable predictions.
However, existing datasets lack diversity in the type of urban scenes and have
a limited number of dynamic object instances which hinders both learning of
these tasks as well as credible benchmarking of the developed methods. In this
paper, we introduce the large-scale Panoptic nuScenes benchmark dataset that
extends our popular nuScenes dataset with point-wise groundtruth annotations
for semantic segmentation, panoptic segmentation, and panoptic tracking tasks.
To facilitate comparison, we provide several strong baselines for each of these
tasks on our proposed dataset. Moreover, we analyze the drawbacks of the
existing metrics for panoptic tracking and propose the novel instance-centric
PAT metric that addresses the concerns. We present exhaustive experiments that
demonstrate the utility of Panoptic nuScenes compared to existing datasets and
make the online evaluation server available at nuScenes.org. We believe that
this extension will accelerate the research of novel methods for scene
understanding of dynamic urban environments.
- Abstract(参考訳): 都市環境におけるロボットや自動走行車にとって、動的エージェントのパノプティクスシーン理解と追跡が不可欠である。
LiDARはシーンの正確な照明に依存しない幾何学的描写を提供するので、LiDARポイントクラウドを使用してこれらのタスクを実行することは、信頼できる予測を提供する。
しかし、既存のデータセットは都市シーンの種類に多様性を欠いているため、これらのタスクの学習を阻害する動的オブジェクトインスタンスの数が限られている。
本稿では,セマンティックセグメンテーション,パンオプティクスセグメンテーション,パンオプティクストラッキングタスクのためのポイントワイズ・グラウンドルートアノテーションを用いて,ポピュラーなnuscenesデータセットを拡張した大規模panoptic nuscenesベンチマークデータセットを提案する。
比較を容易にするために、提案するデータセット上で、これらのタスクごとにいくつかの強力なベースラインを提供します。
さらに,パン光学追跡のための既存の指標の欠点を分析し,その問題に対処する新しいインスタンス中心のPAT指標を提案する。
既存のデータセットと比較してPanoptic nuScenesの有用性を実証し、nuScenes.orgでオンライン評価サーバを利用できるようにする。
我々は,この拡張により,動的都市環境のシーン理解のための新しい手法の研究が促進されると信じている。
関連論文リスト
- OmniPose6D: Towards Short-Term Object Pose Tracking in Dynamic Scenes from Monocular RGB [40.62577054196799]
実環境の多様性を反映した大規模合成データセットOmniPose6Dを提案する。
本稿では,ポーズ追跡アルゴリズムの総合的な比較のためのベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-09T09:01:40Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - MemorySeg: Online LiDAR Semantic Segmentation with a Latent Memory [43.47217183838879]
本稿では,LiDAR点雲の時間的シーケンスのセマンティックセグメンテーションのための新しいフレームワークを提案する。
過去の情報を保存、更新、検索するために、メモリネットワークを使用します。
我々のフレームワークには、点雲の近傍で予測変動を罰する正規化器も含まれている。
論文 参考訳(メタデータ) (2023-11-02T19:18:34Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - DOORS: Dataset fOr bOuldeRs Segmentation. Statistical properties and
Blender setup [0.0]
小天体の表面におけるボルダーの検出能力は、重要な操作やナビゲーションにおけるハザード検出などの視覚ベースの応用に有用である。
この研究は、2つのデータセットを生成するために使われる統計的な特徴と設定を提供する。
論文 参考訳(メタデータ) (2022-10-28T16:39:06Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Deep residential representations: Using unsupervised learning to unlock
elevation data for geo-demographic prediction [0.0]
LiDAR技術は、都市景観と農村景観の詳細な3次元標高マップを提供するために利用することができる。
現在まで、空中LiDAR画像は、主に環境と考古学の領域に限られている。
我々は、このデータの適合性は、独自のだけでなく、人口統計学的特徴と組み合わせたデータの源でもあると考え、埋め込みの現実的なユースケースを提供する。
論文 参考訳(メタデータ) (2021-12-02T17:10:52Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Visual Tracking by TridentAlign and Context Embedding [71.60159881028432]
本稿では,Siamese ネットワークに基づく視覚的トラッキングのための新しい TridentAlign とコンテキスト埋め込みモジュールを提案する。
提案トラッカーの性能は最先端トラッカーに匹敵するが,提案トラッカーはリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2020-07-14T08:00:26Z) - MOPT: Multi-Object Panoptic Tracking [33.77171216778909]
マルチオブジェクト・パノプティブ・トラッキング(MOPT)と呼ばれる新しい知覚タスクを導入する。
MOPTは、時間とともに、"thing"クラスと"stuff"クラスのピクセルレベルのセマンティック情報、時間的コヒーレンス、ピクセルレベルの関連を活用できる。
視覚ベースとLiDARベースのMOPTの定量的,定性的な評価を行い,その効果を実証した。
論文 参考訳(メタデータ) (2020-04-17T11:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。