論文の概要: JRDB-PanoTrack: An Open-world Panoptic Segmentation and Tracking Robotic Dataset in Crowded Human Environments
- arxiv url: http://arxiv.org/abs/2404.01686v1
- Date: Tue, 2 Apr 2024 06:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:38:25.661877
- Title: JRDB-PanoTrack: An Open-world Panoptic Segmentation and Tracking Robotic Dataset in Crowded Human Environments
- Title(参考訳): JRDB-PanoTrack:人混み環境におけるオープンワールドパノプティクスセグメンテーションとロボットデータ追跡
- Authors: Duy-Tho Le, Chenhui Gou, Stavya Datta, Hengcan Shi, Ian Reid, Jianfei Cai, Hamid Rezatofighi,
- Abstract要約: JRDB-PanoTrackは,ロボットシステムにおける環境理解のためのオープンワールド・パノプティクス・セグメンテーションとトラッキング・ベンチマークである。
JRDB-PanoTrackは,1)屋内および屋外の混雑シーンを含む各種データと,総合的な2Dおよび3D同期データモダリティを含む。
クローズドおよびオープンワールド認識ベンチマーク用のさまざまなオブジェクトクラス、評価のためのOSPAベースのメトリクス。
- 参考スコア(独自算出の注目度): 33.85323884177833
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Autonomous robot systems have attracted increasing research attention in recent years, where environment understanding is a crucial step for robot navigation, human-robot interaction, and decision. Real-world robot systems usually collect visual data from multiple sensors and are required to recognize numerous objects and their movements in complex human-crowded settings. Traditional benchmarks, with their reliance on single sensors and limited object classes and scenarios, fail to provide the comprehensive environmental understanding robots need for accurate navigation, interaction, and decision-making. As an extension of JRDB dataset, we unveil JRDB-PanoTrack, a novel open-world panoptic segmentation and tracking benchmark, towards more comprehensive environmental perception. JRDB-PanoTrack includes (1) various data involving indoor and outdoor crowded scenes, as well as comprehensive 2D and 3D synchronized data modalities; (2) high-quality 2D spatial panoptic segmentation and temporal tracking annotations, with additional 3D label projections for further spatial understanding; (3) diverse object classes for closed- and open-world recognition benchmarks, with OSPA-based metrics for evaluation. Extensive evaluation of leading methods shows significant challenges posed by our dataset.
- Abstract(参考訳): 近年,ロボットナビゲーション,人間とロボットのインタラクション,意思決定において,環境理解が重要なステップとなっている。
現実のロボットシステムは、通常、複数のセンサーから視覚データを収集し、複雑な人間の身近な環境で多数の物体とその動きを認識する必要がある。
従来のベンチマークでは、単一のセンサーと限られたオブジェクトクラスとシナリオに依存しており、正確なナビゲーション、インタラクション、意思決定に必要な総合的な環境理解ロボットを提供していない。
JRDBデータセットの拡張として、より包括的な環境認識に向けて、新しいオープンワールドの汎視的セグメンテーションと追跡ベンチマークであるJRDB-PanoTrackを公表する。
JRDB-PanoTrackは,(1)屋内および屋外の混在するシーンを含む様々なデータと,(2)高品質な2次元空間パノスコープセグメンテーションと時間追跡アノテーション,さらに空間的理解のための3Dラベルプロジェクション,(3)クローズドおよびオープンワールド認識ベンチマークのための多様なオブジェクトクラス,およびOSPAに基づく評価用メトリクスを含む。
先行手法の広範囲な評価は,我々のデータセットがもたらす重要な課題を示している。
関連論文リスト
- CoPeD-Advancing Multi-Robot Collaborative Perception: A Comprehensive Dataset in Real-World Environments [8.177157078744571]
本稿では,先駆的で包括的な実世界のマルチロボット協調認識データセットを提案する。
生のセンサー入力、ポーズ推定、オプションのハイレベル認識アノテーションが特徴である。
この研究は、マルチロボット設定におけるマルチモーダル協調認識を通して、ハイレベルなシーン理解の潜在的研究を解き放つだろうと考えている。
論文 参考訳(メタデータ) (2024-05-23T15:59:48Z) - TBD Pedestrian Data Collection: Towards Rich, Portable, and Large-Scale
Natural Pedestrian Data [5.582962886199554]
ソーシャルナビゲーションと歩行者行動の研究は、機械学習ベースの方法に移行した。
そのためには、豊富な情報を含む大規模なデータセットが必要である。
本稿では,半自律型ラベリングパイプラインと組み合わせた携帯型データ収集システムについて述べる。
論文 参考訳(メタデータ) (2023-09-29T12:34:10Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - JRDB-Pose: A Large-scale Dataset for Multi-Person Pose Estimation and
Tracking [6.789370732159177]
マルチパーソンポーズ推定と追跡のための大規模データセットであるJRDB-Poseを紹介する。
データセットには、屋内と屋外の混雑したチャレンジシーンが含まれています。
JRDB-Poseは、キーポイント単位のオクルージョンラベルと、シーン全体で一貫性のあるトラックIDを備えたヒューマンポーズアノテーションを提供する。
論文 参考訳(メタデータ) (2022-10-20T07:14:37Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。