論文の概要: JRDB-Pose: A Large-scale Dataset for Multi-Person Pose Estimation and
Tracking
- arxiv url: http://arxiv.org/abs/2210.11940v1
- Date: Thu, 20 Oct 2022 07:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:55:03.050809
- Title: JRDB-Pose: A Large-scale Dataset for Multi-Person Pose Estimation and
Tracking
- Title(参考訳): JRDB-Pose:マルチパーソンポーズ推定と追跡のための大規模データセット
- Authors: Edward Vendrow, Duy Tho Le and Hamid Rezatofighi
- Abstract要約: マルチパーソンポーズ推定と追跡のための大規模データセットであるJRDB-Poseを紹介する。
データセットには、屋内と屋外の混雑したチャレンジシーンが含まれています。
JRDB-Poseは、キーポイント単位のオクルージョンラベルと、シーン全体で一貫性のあるトラックIDを備えたヒューマンポーズアノテーションを提供する。
- 参考スコア(独自算出の注目度): 6.789370732159177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous robotic systems operating in human environments must understand
their surroundings to make accurate and safe decisions. In crowded human scenes
with close-up human-robot interaction and robot navigation, a deep
understanding requires reasoning about human motion and body dynamics over time
with human body pose estimation and tracking. However, existing datasets either
do not provide pose annotations or include scene types unrelated to robotic
applications. Many datasets also lack the diversity of poses and occlusions
found in crowded human scenes. To address this limitation we introduce
JRDB-Pose, a large-scale dataset and benchmark for multi-person pose estimation
and tracking using videos captured from a social navigation robot. The dataset
contains challenge scenes with crowded indoor and outdoor locations and a
diverse range of scales and occlusion types. JRDB-Pose provides human pose
annotations with per-keypoint occlusion labels and track IDs consistent across
the scene. A public evaluation server is made available for fair evaluation on
a held-out test set. JRDB-Pose is available at https://jrdb.erc.monash.edu/ .
- Abstract(参考訳): 人間の環境で動作する自律ロボットシステムは、正確かつ安全な決定を行うために周囲を理解する必要がある。
クローズアップされた人間とロボットのインタラクションとロボットのナビゲーションを持つ混雑した人間のシーンでは、深い理解のためには、人間の動きと人間の身体の動きを時間とともに推論し、追跡する必要がある。
しかし、既存のデータセットはポーズアノテーションを提供していないか、ロボットアプリケーションとは無関係なシーンタイプを含んでいる。
多くのデータセットは、混雑した人間のシーンに見られるポーズやオクルージョンの多様性を欠いている。
この制限に対処するために,ソーシャルナビゲーションロボットから撮影したビデオを用いて多人数のポーズ推定と追跡を行うための大規模データセットとベンチマークであるjrdb-poseを紹介する。
データセットには、屋内と屋外の混在するチャレンジシーンと、さまざまなスケールと閉塞タイプが含まれている。
JRDB-Poseは、キーポイント単位のオクルージョンラベルと、シーン全体で一貫性のあるトラックIDを備えたヒューマンポーズアノテーションを提供する。
ホールドアウトテストセットにおいて、公開評価サーバを公平に評価することができる。
JRDB-Poseはhttps://jrdb.erc.monash.edu/で利用可能である。
関連論文リスト
- JRDB-PanoTrack: An Open-world Panoptic Segmentation and Tracking Robotic Dataset in Crowded Human Environments [33.85323884177833]
JRDB-PanoTrackは,ロボットシステムにおける環境理解のためのオープンワールド・パノプティクス・セグメンテーションとトラッキング・ベンチマークである。
JRDB-PanoTrackは,1)屋内および屋外の混雑シーンを含む各種データと,総合的な2Dおよび3D同期データモダリティを含む。
クローズドおよびオープンワールド認識ベンチマーク用のさまざまなオブジェクトクラス、評価のためのOSPAベースのメトリクス。
論文 参考訳(メタデータ) (2024-04-02T06:43:22Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - FreeMan: Towards Benchmarking 3D Human Pose Estimation under Real-World Conditions [25.42369471193405]
FreeManは、現実世界の条件下で収集された最初の大規模なマルチビューデータセットである。
8000のシーケンスから1100万フレームで構成され、異なる視点から見ることができます。
これらのシーケンスは、10の異なるシナリオにまたがって40の被験者をカバーし、それぞれ異なる照明条件を持つ。
論文 参考訳(メタデータ) (2023-09-10T16:42:11Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。