論文の概要: Action similarity judgment based on kinematic primitives
- arxiv url: http://arxiv.org/abs/2008.13176v1
- Date: Sun, 30 Aug 2020 13:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:37:01.528734
- Title: Action similarity judgment based on kinematic primitives
- Title(参考訳): 運動プリミティブに基づく行動類似性判定
- Authors: Vipul Nair, Paul Hemeren, Alessia Vignolo, Nicoletta Noceti, Elena
Nicora, Alessandra Sciutti, Francesco Rea, Erik Billing, Francesca Odone and
Giulio Sandini
- Abstract要約: 運動学に基づく計算モデルが動作類似性を決定する範囲について検討する。
選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。
その結果, 動作類似性タスクにおいて, モデルと人的性能の双方が, 運動レベルの特徴に基づく精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 48.99831733355487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding which features humans rely on -- in visually recognizing action
similarity is a crucial step towards a clearer picture of human action
perception from a learning and developmental perspective. In the present work,
we investigate to which extent a computational model based on kinematics can
determine action similarity and how its performance relates to human similarity
judgments of the same actions. To this aim, twelve participants perform an
action similarity task, and their performances are compared to that of a
computational model solving the same task. The chosen model has its roots in
developmental robotics and performs action classification based on learned
kinematic primitives. The comparative experiment results show that both the
model and human participants can reliably identify whether two actions are the
same or not. However, the model produces more false hits and has a greater
selection bias than human participants. A possible reason for this is the
particular sensitivity of the model towards kinematic primitives of the
presented actions. In a second experiment, human participants' performance on
an action identification task indicated that they relied solely on kinematic
information rather than on action semantics. The results show that both the
model and human performance are highly accurate in an action similarity task
based on kinematic-level features, which can provide an essential basis for
classifying human actions.
- Abstract(参考訳): 人間の行動の類似性を視覚的に認識することは、学習と発達の観点からの人間の行動知覚をより明確にするための重要なステップである。
本研究は,運動学に基づく計算モデルが動作類似度をどの程度決定できるか,その性能が人間の行動類似度判断とどのように関連しているかを考察する。
この目的のために、12人の参加者がアクション類似性タスクを実行し、そのパフォーマンスを同じタスクを解決する計算モデルと比較する。
選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。
比較実験の結果,2つの行動が同一であるか否かをモデルと被験者の両方が確実に識別できることがわかった。
しかし、このモデルは偽のヒットを多く生成し、人間の参加者よりも選択バイアスが大きい。
考えられる理由は、提示されたアクションの運動的プリミティブに対するモデルの特定の感度である。
第2の実験では、人間の行動識別タスクにおけるパフォーマンスは、行動意味論よりも運動情報にのみ依存していた。
その結果, 動作類似性課題において, モデルとヒューマンパフォーマンスは, 動作の分類に不可欠な基礎となるキネマティックな特徴に基づく高い精度を示すことができた。
関連論文リスト
- Are Visual-Language Models Effective in Action Recognition? A Comparative Study [22.97135293252601]
本稿では,最先端のビジョン基盤モデルに関する大規模研究と知見を提供する。
ゼロショットとフレームワイドのアクション認識タスクへの転送能力を比較する。
最近の微粒な人間中心の行動認識データセットで実験を行う。
論文 参考訳(メタデータ) (2024-10-22T16:28:21Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - A Training Method For VideoPose3D With Ideology of Action Recognition [0.9949781365631559]
本研究は,行動認識に基づくビデオPose3Dのより高速で柔軟なトレーニング手法を示す。
アクション指向と一般的なポーズ推定の両方の問題を扱うことができる。
論文 参考訳(メタデータ) (2022-06-13T19:25:27Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Spatio-Temporal Human Action Recognition Modelwith Flexible-interval
Sampling and Normalization [0.0]
設計モジュールを用いた赤緑色(RGB)ビデオ入力のためのヒューマンアクションシステムを提案する。
我々は、人間のキーポイント予測と行動認識の両方に対して、類似した背景と差別的な行動を持つ新しいデータセットを構築した。
実験により,提案モデルの有効性を,我々の行動認識データセットといくつかの公開データセットで実証した。
論文 参考訳(メタデータ) (2021-08-12T10:02:20Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。