論文の概要: JRDB-Pose: A Large-scale Dataset for Multi-Person Pose Estimation and
Tracking
- arxiv url: http://arxiv.org/abs/2210.11940v1
- Date: Thu, 20 Oct 2022 07:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:55:03.050809
- Title: JRDB-Pose: A Large-scale Dataset for Multi-Person Pose Estimation and
Tracking
- Title(参考訳): JRDB-Pose:マルチパーソンポーズ推定と追跡のための大規模データセット
- Authors: Edward Vendrow, Duy Tho Le and Hamid Rezatofighi
- Abstract要約: マルチパーソンポーズ推定と追跡のための大規模データセットであるJRDB-Poseを紹介する。
データセットには、屋内と屋外の混雑したチャレンジシーンが含まれています。
JRDB-Poseは、キーポイント単位のオクルージョンラベルと、シーン全体で一貫性のあるトラックIDを備えたヒューマンポーズアノテーションを提供する。
- 参考スコア(独自算出の注目度): 6.789370732159177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous robotic systems operating in human environments must understand
their surroundings to make accurate and safe decisions. In crowded human scenes
with close-up human-robot interaction and robot navigation, a deep
understanding requires reasoning about human motion and body dynamics over time
with human body pose estimation and tracking. However, existing datasets either
do not provide pose annotations or include scene types unrelated to robotic
applications. Many datasets also lack the diversity of poses and occlusions
found in crowded human scenes. To address this limitation we introduce
JRDB-Pose, a large-scale dataset and benchmark for multi-person pose estimation
and tracking using videos captured from a social navigation robot. The dataset
contains challenge scenes with crowded indoor and outdoor locations and a
diverse range of scales and occlusion types. JRDB-Pose provides human pose
annotations with per-keypoint occlusion labels and track IDs consistent across
the scene. A public evaluation server is made available for fair evaluation on
a held-out test set. JRDB-Pose is available at https://jrdb.erc.monash.edu/ .
- Abstract(参考訳): 人間の環境で動作する自律ロボットシステムは、正確かつ安全な決定を行うために周囲を理解する必要がある。
クローズアップされた人間とロボットのインタラクションとロボットのナビゲーションを持つ混雑した人間のシーンでは、深い理解のためには、人間の動きと人間の身体の動きを時間とともに推論し、追跡する必要がある。
しかし、既存のデータセットはポーズアノテーションを提供していないか、ロボットアプリケーションとは無関係なシーンタイプを含んでいる。
多くのデータセットは、混雑した人間のシーンに見られるポーズやオクルージョンの多様性を欠いている。
この制限に対処するために,ソーシャルナビゲーションロボットから撮影したビデオを用いて多人数のポーズ推定と追跡を行うための大規模データセットとベンチマークであるjrdb-poseを紹介する。
データセットには、屋内と屋外の混在するチャレンジシーンと、さまざまなスケールと閉塞タイプが含まれている。
JRDB-Poseは、キーポイント単位のオクルージョンラベルと、シーン全体で一貫性のあるトラックIDを備えたヒューマンポーズアノテーションを提供する。
ホールドアウトテストセットにおいて、公開評価サーバを公平に評価することができる。
JRDB-Poseはhttps://jrdb.erc.monash.edu/で利用可能である。
関連論文リスト
- Social-Transmotion: Promptable Human Trajectory Prediction [70.59399670794171]
ソーシャルトランスモーション(Social-Transmotion)は、トランスフォーマーのパワーを利用して、多種多様な視覚的手がかりを扱う汎用モデルである。
提案手法は,JTA,JRDB,道路交通の歩行者・自転車,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Revisit Human-Scene Interaction via Space Occupancy [59.732387568308816]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - FreeMan: Towards Benchmarking 3D Human Pose Estimation under Real-World
Conditions [26.269621965027625]
FreeManは、現実世界の条件下で収集された最初の大規模なマルチビューデータセットである。
8000のシーケンスから1100万フレームで構成され、異なる視点から見ることができます。
これらのシーケンスは、10の異なるシナリオにまたがって40の被験者をカバーし、それぞれ異なる照明条件を持つ。
論文 参考訳(メタデータ) (2023-09-10T16:42:11Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - EgoBody: Human Body Shape, Motion and Social Interactions from
Head-Mounted Devices [76.50816193153098]
EgoBodyは複雑な3Dシーンにおけるソーシャルインタラクションのための新しい大規模データセットである。
私たちはMicrosoft HoloLens2ヘッドセットを使って、RGB、奥行き、視線、頭と手のトラッキングなど、リッチなエゴセントリックなデータストリームを記録しています。
正確な3Dグラウンドトルースを得るため、マルチKinectリグでヘッドセットを校正し、多視点RGB-Dフレームに表現力のあるSMPL-Xボディーメッシュを適合させる。
論文 参考訳(メタデータ) (2021-12-14T18:41:28Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。