論文の概要: ADL4D: Towards A Contextually Rich Dataset for 4D Activities of Daily
Living
- arxiv url: http://arxiv.org/abs/2402.17758v1
- Date: Tue, 27 Feb 2024 18:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 14:56:38.887494
- Title: ADL4D: Towards A Contextually Rich Dataset for 4D Activities of Daily
Living
- Title(参考訳): adl4d: 日常生活の4次元活動のためのコンテキストリッチなデータセットを目指して
- Authors: Marsil Zakour, Partha Pratim Nath, Ludwig Lohmer, Emre Faik
G\"ok\c{c}e, Martin Piccolrovazzi, Constantin Patsch, Yuankai Wu, Rahul
Chaudhari, Eckehard Steinbach
- Abstract要約: ADL4Dは、日々の生活活動(ADL)を行う異なる対象のセットで行動する、最大2人の被験者のデータセットである
我々のデータセットは75のシーケンスで構成されており、合計1.1MのRGB-Dフレーム、手とオブジェクトのポーズ、手ごとのきめ細かいアクションアノテーションで構成されています。
マルチビュー・マルチハンド3Dポーズ・アンノベーションのための自動システムを開発した。
- 参考スコア(独自算出の注目度): 4.221961702292134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand-Object Interactions (HOIs) are conditioned on spatial and temporal
contexts like surrounding objects, pre- vious actions, and future intents (for
example, grasping and handover actions vary greatly based on objects proximity
and trajectory obstruction). However, existing datasets for 4D HOI (3D HOI over
time) are limited to one subject inter- acting with one object only. This
restricts the generalization of learning-based HOI methods trained on those
datasets. We introduce ADL4D, a dataset of up to two subjects inter- acting
with different sets of objects performing Activities of Daily Living (ADL) like
breakfast or lunch preparation ac- tivities. The transition between multiple
objects to complete a certain task over time introduces a unique context
lacking in existing datasets. Our dataset consists of 75 sequences with a total
of 1.1M RGB-D frames, hand and object poses, and per-hand fine-grained action
annotations. We develop an automatic system for multi-view multi-hand 3D pose
an- notation capable of tracking hand poses over time. We inte- grate and test
it against publicly available datasets. Finally, we evaluate our dataset on the
tasks of Hand Mesh Recov- ery (HMR) and Hand Action Segmentation (HAS).
- Abstract(参考訳): ハンド・オブジェクト・インタラクション(HOI)は、周囲の物体、予見行動、将来の意図といった空間的・時間的文脈で条件付けられている(例えば、グリーピングとハンドオーバ・アクションは、物体の近接と軌道障害物に基づいて大きく異なる)。
しかし、既存の4D HOI(3D HOI over time)のデータセットは、1つのオブジェクトのみに作用する1つの対象に限られている。
これにより、これらのデータセットでトレーニングされた学習ベースのHOIメソッドの一般化が制限される。
adl4dは、朝食や昼食準備のac-ティビティなど、日常生活活動(adl)を行うさまざまなオブジェクトセットと相互作用する最大2人の被験者のデータセットである。
タスクを完了させるために複数のオブジェクト間の遷移は、既存のデータセットに欠けているユニークなコンテキストを導入します。
私たちのデータセットは75のシーケンスで構成されており、合計1.1mのrgb-dフレーム、手とオブジェクトのポーズ、手当たりのきめ細かいアクションアノテーションがあります。
本研究では,多視点マルチハンド3dポーズアンノーテーションのための自動システムを開発した。
公開データセットに対して実行してテストします。
最後に、Hand Mesh Recov-ery(HMR)とHand Action Segmentation(HAS)のタスクに関するデータセットを評価した。
関連論文リスト
- Dense Hand-Object(HO) GraspNet with Full Grasping Taxonomy and Dynamics [43.30868393851785]
HOGraspNetは、3Dハンドオブジェクトインタラクションのためのトレーニングデータセットである。
データセットには、10歳から74歳の99人の被験者のさまざまな手形が含まれている。
3Dハンドとオブジェクトメッシュ,3Dキーポイント,コンタクトマップ,Emphgraspラベルのラベルを提供する。
論文 参考訳(メタデータ) (2024-09-06T05:49:38Z) - HIMO: A New Benchmark for Full-Body Human Interacting with Multiple Objects [86.86284624825356]
HIMOは、複数のオブジェクトと相互作用するフルボディの人間のデータセットである。
HIMOは3.3K 4D HOIシーケンスと4.08M 3D HOIフレームを含む。
論文 参考訳(メタデータ) (2024-07-17T07:47:34Z) - ParaHome: Parameterizing Everyday Home Activities Towards 3D Generative
Modeling of Human-Object Interactions [11.32229757116179]
そこで我々は,人間と物体の動的3次元運動を,共通のホーム環境内で捉えるために設計されたParaHomeシステムを紹介した。
ParaHomeシステムを利用することで、人間と物体の相互作用の大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2024-01-18T18:59:58Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - ATTACH Dataset: Annotated Two-Handed Assembly Actions for Human Action
Understanding [8.923830513183882]
ATTACHデータセットは、95.2kの注釈付き微粒なアクションを3台のカメラで監視する51.6時間のアセンブリを含む。
ATTACHデータセットでは、アノテーションの68%以上が他のアノテーションと重複している。
ビデオおよび骨格配列入力における動作検出だけでなく,動作認識のための最先端手法の性能について報告する。
論文 参考訳(メタデータ) (2023-04-17T12:31:24Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - Semi-automatic 3D Object Keypoint Annotation and Detection for the
Masses [42.34064154798376]
本稿では,標準的なロボットアームに装着した手首カメラを用いて,データセットの収集とラベル付けを行う半自動方式を提案する。
動作中の3Dオブジェクトのキーポイント検出器を取得して、わずか数時間でデータ収集、アノテーション、学習の全プロセスを実行できます。
論文 参考訳(メタデータ) (2022-01-19T15:41:54Z) - H2O: Two Hands Manipulating Objects for First Person Interaction
Recognition [70.46638409156772]
両手操作対象のマーカーレス3Dアノテーションを用いて,エゴセントリックな対話認識のための包括的なフレームワークを提案する。
本手法は,2つの手の3次元ポーズと操作対象の6次元ポーズのアノテーションと,それぞれのフレームのインタラクションラベルを生成する。
我々のデータセットは、H2O (2 Hands and Objects)と呼ばれ、同期されたマルチビューRGB-D画像、対話ラベル、オブジェクトクラス、左右の手でのグラウンドトルース3Dポーズ、6Dオブジェクトポーズ、グラウンドトルースカメラポーズ、オブジェクトメッシュ、シーンポイントクラウドを提供する。
論文 参考訳(メタデータ) (2021-04-22T17:10:42Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。