論文の概要: Human Interaction Recognition Framework based on Interacting Body Part
Attention
- arxiv url: http://arxiv.org/abs/2101.08967v1
- Date: Fri, 22 Jan 2021 06:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 17:25:26.717225
- Title: Human Interaction Recognition Framework based on Interacting Body Part
Attention
- Title(参考訳): 相互作用する身体部分の注意に基づくヒューマンインタラクション認識フレームワーク
- Authors: Dong-Gyu Lee, Seong-Whan Lee
- Abstract要約: 人間の相互作用の暗黙的および明示的な表現を同時に考慮する新しいフレームワークを提案する。
提案手法は, 相互作用部位の注意力を用いて, 異なる相互作用の微妙な違いを捉える。
提案手法の有効性を4つの公開データセットを用いて検証する。
- 参考スコア(独自算出の注目度): 24.913372626903648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human activity recognition in videos has been widely studied and has recently
gained significant advances with deep learning approaches; however, it remains
a challenging task. In this paper, we propose a novel framework that
simultaneously considers both implicit and explicit representations of human
interactions by fusing information of local image where the interaction
actively occurred, primitive motion with the posture of individual subject's
body parts, and the co-occurrence of overall appearance change. Human
interactions change, depending on how the body parts of each human interact
with the other. The proposed method captures the subtle difference between
different interactions using interacting body part attention. Semantically
important body parts that interact with other objects are given more weight
during feature representation. The combined feature of interacting body part
attention-based individual representation and the co-occurrence descriptor of
the full-body appearance change is fed into long short-term memory to model the
temporal dynamics over time in a single framework. We validate the
effectiveness of the proposed method using four widely used public datasets by
outperforming the competing state-of-the-art method.
- Abstract(参考訳): ビデオにおける人間の行動認識は、広く研究され、近年、深層学習のアプローチによって大きな進歩を遂げてきたが、依然として困難な課題である。
本稿では,対話が活発な局所画像の情報,個人の身体部位の姿勢による原始的な動き,全体的な外観変化の共起といった情報を融合させることにより,人的インタラクションの暗黙的表現と明示的表現を同時に考える新しい枠組みを提案する。
人間の相互作用は、人間の身体部分同士の相互作用の仕方によって変化する。
提案手法は, 相互作用する身体部分の注意力を用いて, 異なる相互作用間の微妙な差を捉える。
他のオブジェクトと相互作用するセマンティックに重要なボディパーツは、特徴表現中により重みが与えられる。
対話体部分の注目に基づく個人表現と、フルボディの外観変化の共起記述器との組み合わせ特徴を長期記憶に入力し、時間経過に伴う時間的ダイナミクスを1つのフレームワークでモデル化する。
提案手法の有効性を検証するために,提案手法の有効性を4つの公開データセットを用いて検証した。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Modelling Spatio-Temporal Interactions for Compositional Action
Recognition [21.8767024220287]
人間は、アクションやバックグラウンドに関わるオブジェクトが変更されても、アクションを認識する能力を持っている。
本研究では,インタラクション中心のアプローチが構成的Somes-Elseデータセットに与える影響を示す。
人-物-物間相互作用モデリングのアプローチは,標準的な行動認識データセットにおいても有効である。
論文 参考訳(メタデータ) (2023-05-04T09:37:45Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Mining Cross-Person Cues for Body-Part Interactiveness Learning in HOI
Detection [39.61023122191333]
ヒューマン・オブジェクト・インタラクション(HOI)検出は,活動理解において重要な役割を担っている。
先行研究は、対象人物(例えば、地域的な視点で)に焦点を合わせ、他者の情報を見渡すのみである。
本稿では,複数人の身体を同時に比較することで,より有用で補助的な対話性を実現することができると論じる。
本研究は, 個人間の情報的手がかりを自覚的に抽出し, 全身体間の包括的関係を学習するために, 自己注意に基づく身体部分のサリエンシマップを構築した。
論文 参考訳(メタデータ) (2022-07-28T15:57:51Z) - IGFormer: Interaction Graph Transformer for Skeleton-based Human
Interaction Recognition [26.05948629634753]
骨格に基づく対話認識のための新しい対話グラフ変換器 (IGFormer) ネットワークを提案する。
IGFormerは、対話体部分間の意味的および距離的相関に基づいて相互作用グラフを構築する。
また,ヒトの骨格配列をBody-Part-Time配列に変換するセマンティック分割モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-25T12:11:15Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Spatio-Temporal Interaction Graph Parsing Networks for Human-Object
Interaction Recognition [55.7731053128204]
ビデオに基づくヒューマンオブジェクトインタラクションシーンでは、人間とオブジェクトの時間的関係をモデル化することが、ビデオに提示されるコンテキスト情報を理解するための重要な手がかりである。
実効時間関係モデリングでは、各フレームの文脈情報を明らかにするだけでなく、時間間の依存関係を直接キャプチャすることもできる。
外観特徴、空間的位置、意味情報のフル活用は、ビデオベースのヒューマンオブジェクトインタラクション認識性能を改善する鍵でもある。
論文 参考訳(メタデータ) (2021-08-19T11:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。