論文の概要: Human Activity Recognition based on Dynamic Spatio-Temporal Relations
- arxiv url: http://arxiv.org/abs/2006.16132v1
- Date: Mon, 29 Jun 2020 15:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:02:56.484427
- Title: Human Activity Recognition based on Dynamic Spatio-Temporal Relations
- Title(参考訳): 動的時空間関係に基づく人間の活動認識
- Authors: Zhenyu Liu, Yaqiang Yao, Yan Liu, Yuening Zhu, Zhenchao Tao, Lei Wang,
Yuhong Feng
- Abstract要約: 1つの人間の行動の記述と、連続する人間の行動の進化のモデル化は、人間の活動認識における2つの主要な問題である。
これら2つの課題に対処する人間行動認識手法を開発した。
- 参考スコア(独自算出の注目度): 10.635134217802783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activity, which usually consists of several actions, generally covers
interactions among persons and or objects. In particular, human actions involve
certain spatial and temporal relationships, are the components of more
complicated activity, and evolve dynamically over time. Therefore, the
description of a single human action and the modeling of the evolution of
successive human actions are two major issues in human activity recognition. In
this paper, we develop a method for human activity recognition that tackles
these two issues. In the proposed method, an activity is divided into several
successive actions represented by spatio temporal patterns, and the evolution
of these actions are captured by a sequential model. A refined comprehensive
spatio temporal graph is utilized to represent a single action, which is a
qualitative representation of a human action incorporating both the spatial and
temporal relations of the participant objects. Next, a discrete hidden Markov
model is applied to model the evolution of action sequences. Moreover, a fully
automatic partition method is proposed to divide a long-term human activity
video into several human actions based on variational objects and qualitative
spatial relations. Finally, a hierarchical decomposition of the human body is
introduced to obtain a discriminative representation for a single action.
Experimental results on the Cornell Activity Dataset demonstrate the efficiency
and effectiveness of the proposed approach, which will enable long videos of
human activity to be better recognized.
- Abstract(参考訳): 通常、人間の活動はいくつかの行動から成り、一般的に人や物体間の相互作用をカバーしている。
特に、人間の行動は特定の空間的および時間的関係を持ち、より複雑な活動の構成要素であり、時間とともに動的に進化する。
したがって、人間行動の単一記述と連続する人間の行動の進化のモデル化は、人間の行動認識において2つの大きな問題である。
本稿では,この2つの課題に取り組むためのヒューマンアクティビティ認識手法を提案する。
提案手法では,活動は時空間パターンで表される複数の連続的な行動に分割し,これらの行動の進化を逐次モデルにより捉えた。
改良された包括的時空間グラフを用いて、参加者オブジェクトの空間的および時間的関係を取り入れた人間の行動の質的表現である単一の行動を表現する。
次に、離散隠れマルコフモデルを適用し、アクションシーケンスの進化をモデル化する。
さらに, 長期人間の活動映像を, 変動対象と定性的空間関係に基づく複数の人間行動に分割する完全自動分割法を提案する。
最後に、人間の身体の階層的な分解を導入し、単一の行動に対する識別的表現を得る。
コーネル活動データセットにおける実験結果は、人間の活動の長い動画をよりよく認識できるようにする提案手法の効率と有効性を示している。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Persistent-Transient Duality: A Multi-mechanism Approach for Modeling
Human-Object Interaction [58.67761673662716]
人間は高度に適応可能で、異なるタスク、状況、状況を扱うために異なるモードを素早く切り替える。
人間と物体の相互作用(HOI)において、これらのモードは、(1)活動全体に対する大規模な一貫した計画、(2)タイムラインに沿って開始・終了する小規模の子どもの対話的行動の2つのメカニズムに起因していると考えられる。
本研究は、人間の動作を協調的に制御する2つの同時メカニズムをモデル化することを提案する。
論文 参考訳(メタデータ) (2023-07-24T12:21:33Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Human Activity Recognition Using Cascaded Dual Attention CNN and
Bi-Directional GRU Framework [3.3721926640077795]
視覚に基づく人間の活動認識は、ビデオ分析領域において重要な研究領域の1つとして現れてきた。
本稿では,人間の行動認識における深部識別的空間的特徴と時間的特徴を利用した,計算的に効率的だが汎用的な空間時空間カスケードフレームワークを提案する。
提案手法は, 従来の動作認識手法と比較して, フレーム毎秒最大167倍の性能向上を実現している。
論文 参考訳(メタデータ) (2022-08-09T20:34:42Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - Human Interaction Recognition Framework based on Interacting Body Part
Attention [24.913372626903648]
人間の相互作用の暗黙的および明示的な表現を同時に考慮する新しいフレームワークを提案する。
提案手法は, 相互作用部位の注意力を用いて, 異なる相互作用の微妙な違いを捉える。
提案手法の有効性を4つの公開データセットを用いて検証する。
論文 参考訳(メタデータ) (2021-01-22T06:52:42Z) - LEMMA: A Multi-view Dataset for Learning Multi-agent Multi-task
Activities [119.88381048477854]
LEMMAデータセットを導入し、細心の注意深い設定で、行方不明な次元に対処するための単一の家を提供する。
我々は、人間と物体の相互作用による原子間相互作用を密に注釈し、日常の活動の構成性、スケジューリング、割り当ての土台として提供する。
この取り組みにより、マシンビジョンコミュニティは、目標指向の人間活動を調べ、現実世界におけるタスクのスケジューリングと割り当てをさらに研究できることを期待します。
論文 参考訳(メタデータ) (2020-07-31T00:13:54Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。