論文の概要: Human and Machine Action Prediction Independent of Object Information
- arxiv url: http://arxiv.org/abs/2004.10518v1
- Date: Wed, 22 Apr 2020 12:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:11:18.106725
- Title: Human and Machine Action Prediction Independent of Object Information
- Title(参考訳): 物体情報に依存しない人間と機械の行動予測
- Authors: Fatemeh Ziaeetabar, Jennifer Pomp, Stefan Pfeiffer, Nadiya El-Sourani,
Ricarda I. Schubotz, Minija Tamosiunaite and Florentin W\"org\"otter
- Abstract要約: 行動中に変化する物体間関係の役割について検討する。
我々は平均して、アクションの持続時間の64%以下で行動を予測する。
- 参考スコア(独自算出の注目度): 1.0806206850043696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting other people's action is key to successful social interactions,
enabling us to adjust our own behavior to the consequence of the others' future
actions. Studies on action recognition have focused on the importance of
individual visual features of objects involved in an action and its context.
Humans, however, recognize actions on unknown objects or even when objects are
imagined (pantomime). Other cues must thus compensate the lack of recognizable
visual object features. Here, we focus on the role of inter-object relations
that change during an action. We designed a virtual reality setup and tested
recognition speed for 10 different manipulation actions on 50 subjects. All
objects were abstracted by emulated cubes so the actions could not be inferred
using object information. Instead, subjects had to rely only on the information
that comes from the changes in the spatial relations that occur between those
cubes. In spite of these constraints, our results show the subjects were able
to predict actions in, on average, less than 64% of the action's duration. We
employed a computational model -an enriched Semantic Event Chain (eSEC)-
incorporating the information of spatial relations, specifically (a) objects'
touching/untouching, (b) static spatial relations between objects and (c)
dynamic spatial relations between objects. Trained on the same actions as those
observed by subjects, the model successfully predicted actions even better than
humans. Information theoretical analysis shows that eSECs optimally use
individual cues, whereas humans presumably mostly rely on a mixed-cue strategy,
which takes longer until recognition. Providing a better cognitive basis of
action recognition may, on one hand improve our understanding of related human
pathologies and, on the other hand, also help to build robots for conflict-free
human-robot cooperation. Our results open new avenues here.
- Abstract(参考訳): 他人の行動を予測することは、社会的な相互作用を成功させる鍵であり、他人の将来の行動の結果に応じて自分の行動を調整できる。
行動認識に関する研究は、行動に関わる物体の個々の視覚的特徴の重要性とその文脈に焦点を当ててきた。
しかし、人間は未知の物体や、物体が想像されるときでさえも行動を認識する(パントマイム)。
他のキューは、認識可能な視覚オブジェクト機能の欠如を補う必要がある。
ここでは、行動中に変化するオブジェクト間関係の役割に焦点を当てる。
仮想現実(virtual reality, vr)のセットアップを設計,50名の被験者に対して10種類の操作動作の認識速度をテストした。
全てのオブジェクトはエミュレートされた立方体によって抽象化されたので、アクションはオブジェクト情報を使って推論できない。
その代わり、被験者はそれらの立方体間の空間的関係の変化から生じる情報にのみ依存する必要があった。
これらの制約にもかかわらず、被験者は平均して行動継続時間の64%未満で行動を予測することができた。
我々は空間関係の情報を取り入れた計算モデル-強化セマンティックイベントチェーン(eSEC)を採用した。
a)オブジェクトのタッチ/アンタッチ
b)オブジェクトとオブジェクト間の静的な空間関係
(c)オブジェクト間の動的空間関係。
被験者が観察したのと同じ行動で訓練されたこのモデルは、人間よりも優れた行動を予測できた。
情報理論分析によると、eSECは個々の手がかりを最適に利用するのに対し、人間は主に混合キュー戦略に依存している。
行動認識のより優れた認知基盤を提供することは、関連する人間の病理の理解を改善し、他方で、紛争のない人間とロボットの協力のためのロボットを構築するのにも役立ちます。
私たちの結果はここで新しい道を開く。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - LEMON: Learning 3D Human-Object Interaction Relation from 2D Images [56.6123961391372]
人間の物体と物体の相互作用関係の学習は、AIと相互作用モデリングの具体化に不可欠である。
既存のほとんどの手法は、孤立した相互作用要素を予測することを学ぶことで目標に近づいている。
本稿では,相互の相互作用意図をマイニングし,幾何相関の抽出を導出するための曲率を用いた統一モデルLEMONを提案する。
論文 参考訳(メタデータ) (2023-12-14T14:10:57Z) - Modelling Spatio-Temporal Interactions for Compositional Action
Recognition [21.8767024220287]
人間は、アクションやバックグラウンドに関わるオブジェクトが変更されても、アクションを認識する能力を持っている。
本研究では,インタラクション中心のアプローチが構成的Somes-Elseデータセットに与える影響を示す。
人-物-物間相互作用モデリングのアプローチは,標準的な行動認識データセットにおいても有効である。
論文 参考訳(メタデータ) (2023-05-04T09:37:45Z) - Object-agnostic Affordance Categorization via Unsupervised Learning of
Graph Embeddings [6.371828910727037]
オブジェクトのインタラクションやアベイランスに関する知識を取得することで、シーン理解や人間とロボットのコラボレーション作業が容易になる。
オープンな相互作用の集合を持つクラス非依存オブジェクトに対する割当分類の問題に対処する。
アクティビティグラフの構築のために,新しい深度情報を用いた定性的空間表現を提案する。
論文 参考訳(メタデータ) (2023-03-30T15:04:04Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Object and Relation Centric Representations for Push Effect Prediction [18.990827725752496]
プッシュは、プレグレープ操作からシーンアレンジメントまでのタスクに使用される、非包括的操作スキルである。
本稿では,プッシュ動作の効果予測とパラメータ推定のためのグラフニューラルネットワークに基づくフレームワークを提案する。
本フレームワークは,異なる種類の接合体と異なる質量を有する物体を介して接続された異なる形状の多部オブジェクトを含む実環境と模擬環境の両方で検証される。
論文 参考訳(メタデータ) (2021-02-03T15:09:12Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。