論文の概要: ENIGMA-51: Towards a Fine-Grained Understanding of Human-Object
Interactions in Industrial Scenarios
- arxiv url: http://arxiv.org/abs/2309.14809v2
- Date: Mon, 27 Nov 2023 16:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 14:39:00.152043
- Title: ENIGMA-51: Towards a Fine-Grained Understanding of Human-Object
Interactions in Industrial Scenarios
- Title(参考訳): ENIGMA-51:産業シナリオにおける人間と物体の相互作用の微妙な理解を目指して
- Authors: Francesco Ragusa and Rosario Leonardi and Michele Mazzamuto and
Claudia Bonanno and Rosario Scavo and Antonino Furnari and Giovanni Maria
Farinella
- Abstract要約: ENIGMA-51は19人の被験者が工業的シナリオで取得した新しいエゴセントリックなデータセットである。
51のエゴセントリックなビデオシーケンスは、産業領域における人間の行動の体系的な研究を可能にする、豊富なラベルのセットで密接な注釈付けがなされている。
- 参考スコア(独自算出の注目度): 11.424643984957118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ENIGMA-51 is a new egocentric dataset acquired in an industrial scenario by
19 subjects who followed instructions to complete the repair of electrical
boards using industrial tools (e.g., electric screwdriver) and equipments
(e.g., oscilloscope). The 51 egocentric video sequences are densely annotated
with a rich set of labels that enable the systematic study of human behavior in
the industrial domain. We provide benchmarks on four tasks related to human
behavior: 1) untrimmed temporal detection of human-object interactions, 2)
egocentric human-object interaction detection, 3) short-term object interaction
anticipation and 4) natural language understanding of intents and entities.
Baseline results show that the ENIGMA-51 dataset poses a challenging benchmark
to study human behavior in industrial scenarios. We publicly release the
dataset at https://iplab.dmi.unict.it/ENIGMA-51.
- Abstract(参考訳): ENIGMA-51は、19人の被験者が工業用ツール(例えば電気スクリュードライバー)と機器(例えばオシロスコープ)を使用して電気基板の修理を完了させる指示に従って取得した、新しいエゴセントリックなデータセットである。
51のエゴセントリックなビデオシーケンスは、産業領域における人間の行動の体系的な研究を可能にする、豊富なラベルセットで密に注釈付けされている。
人間の行動に関連する4つのタスクのベンチマークを提供する。
1)人間と物体の相互作用の時間的異常検出
2)人間と物体の相互作用検出
3)短期的物体間相互作用予測及び
4)意図及び実体に関する自然言語の理解。
ベースライン結果は、ENIGMA-51データセットが産業シナリオにおける人間の振る舞いを研究する上で、困難なベンチマークとなることを示している。
データセットはhttps://iplab.dmi.unict.it/ENIGMA-51で公開しています。
関連論文リスト
- EgoPet: Egomotion and Interaction Data from an Animal's Perspective [82.7192364237065]
本稿では,同時行動とマルチエージェントインタラクションの多様な例を含む,ペットの情緒的イメージのデータセットを紹介する。
EgoPetは、既存の人間や車両のエゴセントリックなデータセットとは根本的に異なる視点を提供する。
動物行動を把握する2つのドメイン内ベンチマークタスクと、ロボット四足歩行のための事前学習リソースとしてEgoPetの有用性を評価するための第3のベンチマークを定義する。
論文 参考訳(メタデータ) (2024-04-15T17:59:47Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - HoloAssist: an Egocentric Human Interaction Dataset for Interactive AI
Assistants in the Real World [48.90399899928823]
この研究は、物理的な世界でのタスクを実行することで人間を対話的に導くインテリジェントエージェントを開発するための、より広範な研究努力の一環である。
大規模なエゴセントリックなヒューマンインタラクションデータセットであるHoloAssistを紹介する。
人間のアシスタントがミスを正し、タスク完了手順に介入し、環境に指示を下す方法について、重要な知見を提示する。
論文 参考訳(メタデータ) (2023-09-29T07:17:43Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Discovering a Variety of Objects in Spatio-Temporal Human-Object
Interactions [45.92485321148352]
毎日のHOIでは、人間が掃除中に何十もの家庭用品を持って触れるなど、さまざまな物と対話することが多い。
51のインタラクションと1000以上のオブジェクトを含むDIO(Discoveringed Objects)。
ST-HOI学習タスクは、視覚システムが人間のアクターを追跡し、相互作用を検出し、同時に物体を発見することを期待するものである。
論文 参考訳(メタデータ) (2022-11-14T16:33:54Z) - MECCANO: A Multimodal Egocentric Dataset for Humans Behavior
Understanding in the Industrial-like Domain [23.598727613908853]
本稿では,産業的な環境下での人間の行動理解を目的とした,エゴセントリックなビデオのデータセットMECCANOを提案する。
マルチモダリティの特徴は、視線信号、深度マップ、RGBビデオとカスタムヘッドセットが同時に取得される点である。
データセットは、人間の行動理解の文脈における基本的なタスクに対して、一人称視点から明示的にラベル付けされている。
論文 参考訳(メタデータ) (2022-09-19T00:52:42Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Egocentric Human-Object Interaction Detection Exploiting Synthetic Data [19.220651860718892]
産業的文脈において,エゴセントリックなヒューマンオブジェクトインタラクション(EHOI)を検出することの問題点を考察する。
EHOI検出に自動的にラベル付けされたFPV画像を生成するためのパイプラインとツールを提案する。
論文 参考訳(メタデータ) (2022-04-14T15:59:15Z) - The MECCANO Dataset: Understanding Human-Object Interactions from
Egocentric Videos in an Industrial-like Domain [20.99718135562034]
我々は,産業的な環境下での人間と物体の相互作用を研究するための,エゴセントリックビデオの最初のデータセットであるMECCANOを紹介した。
このデータセットは、人間とオブジェクトの相互作用をエゴセントリックな視点から認識するタスクのために明示的にラベル付けされている。
ベースラインの結果から,MECCANOデータセットは,産業的なシナリオにおける自我中心の人間とオブジェクトの相互作用を研究する上で,困難なベンチマークであることが示された。
論文 参考訳(メタデータ) (2020-10-12T12:50:30Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。