論文の概要: IGFormer: Interaction Graph Transformer for Skeleton-based Human
Interaction Recognition
- arxiv url: http://arxiv.org/abs/2207.12100v1
- Date: Mon, 25 Jul 2022 12:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 14:52:55.520124
- Title: IGFormer: Interaction Graph Transformer for Skeleton-based Human
Interaction Recognition
- Title(参考訳): IGFormer:人体インタラクション認識のための対話グラフ変換器
- Authors: Yunsheng Pang, Qiuhong Ke, Hossein Rahmani, James Bailey, Jun Liu
- Abstract要約: 骨格に基づく対話認識のための新しい対話グラフ変換器 (IGFormer) ネットワークを提案する。
IGFormerは、対話体部分間の意味的および距離的相関に基づいて相互作用グラフを構築する。
また,ヒトの骨格配列をBody-Part-Time配列に変換するセマンティック分割モジュールを提案する。
- 参考スコア(独自算出の注目度): 26.05948629634753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human interaction recognition is very important in many applications. One
crucial cue in recognizing an interaction is the interactive body parts. In
this work, we propose a novel Interaction Graph Transformer (IGFormer) network
for skeleton-based interaction recognition via modeling the interactive body
parts as graphs. More specifically, the proposed IGFormer constructs
interaction graphs according to the semantic and distance correlations between
the interactive body parts, and enhances the representation of each person by
aggregating the information of the interactive body parts based on the learned
graphs. Furthermore, we propose a Semantic Partition Module to transform each
human skeleton sequence into a Body-Part-Time sequence to better capture the
spatial and temporal information of the skeleton sequence for learning the
graphs. Extensive experiments on three benchmark datasets demonstrate that our
model outperforms the state-of-the-art with a significant margin.
- Abstract(参考訳): 人間のインタラクション認識は多くのアプリケーションにおいて非常に重要である。
相互作用を認識する上で重要な手がかりの一つは、対話的な身体の部分である。
本研究では,インタラクティブな体部をグラフとしてモデル化し,スケルトンベースインタラクション認識のための新しいインタラクショングラフトランスフォーマ(igformer)ネットワークを提案する。
具体的には,対話体部間の意味的・距離的相関に基づいて対話グラフを構築し,学習したグラフに基づいて対話体部の情報を集約することにより,各人物の表現を向上させる。
さらに,各人間の骨格配列を体外時間系列に変換する意味分割モジュールを提案し,それらのグラフを学習するための骨格配列の空間的および時間的情報をよりよくキャプチャする。
3つのベンチマークデータセットに関する広範な実験は、我々のモデルが最先端をかなり上回っていることを示している。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Understanding Spatio-Temporal Relations in Human-Object Interaction using Pyramid Graph Convolutional Network [2.223052975765005]
本稿では,人間と物体の相互作用を自動的に認識する新しいピラミッドグラフ畳み込みネットワーク(PGCN)を提案する。
このシステムは、映像データをグラフとして検出した結果から、人間と物体の2次元または3次元空間関係を表す。
我々は,人間と物体の相互作用認識の分野で,2つの挑戦的データセット上でモデルを評価した。
論文 参考訳(メタデータ) (2024-10-10T13:39:17Z) - Learning Mutual Excitation for Hand-to-Hand and Human-to-Human
Interaction Recognition [22.538114033191313]
相互励起グラフ畳み込み層を積み重ねた相互励起グラフ畳み込みネットワーク(me-GCN)を提案する。
Me-GCは各レイヤとグラフ畳み込み操作の各ステージで相互情報を学習する。
提案するme-GCは,最先端GCN法およびTransformer法より優れている。
論文 参考訳(メタデータ) (2024-02-04T10:00:00Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Cross-Skeleton Interaction Graph Aggregation Network for Representation
Learning of Mouse Social Behaviour [24.716092330419123]
マウスの社会的行動分析は、行動神経科学においてますますポピュラーな研究領域となっている。
高度に変形可能な体型とあいまいな運動パターンにより、マウス間の複雑な社会的相互作用をモデル化することは困難である。
我々は,自由に相互作用するマウスの豊富な動態を学習するクロス骨格相互作用グラフ集約ネットワーク(CS-IGANet)を提案する。
論文 参考訳(メタデータ) (2022-08-07T21:06:42Z) - A Skeleton-aware Graph Convolutional Network for Human-Object
Interaction Detection [14.900704382194013]
そこで我々は,SGCN4HOIという人-物間相互作用検出のためのスケルトン対応グラフ畳み込みネットワークを提案する。
我々のネットワークは、人間のキーポイントとオブジェクトキーポイントの間の空間的接続を利用して、グラフの畳み込みによるきめ細かい構造的相互作用を捉えます。
このような幾何学的特徴と視覚的特徴と、人間と物体のペアから得られる空間的構成特徴を融合させる。
論文 参考訳(メタデータ) (2022-07-11T15:20:18Z) - Spatio-Temporal Interaction Graph Parsing Networks for Human-Object
Interaction Recognition [55.7731053128204]
ビデオに基づくヒューマンオブジェクトインタラクションシーンでは、人間とオブジェクトの時間的関係をモデル化することが、ビデオに提示されるコンテキスト情報を理解するための重要な手がかりである。
実効時間関係モデリングでは、各フレームの文脈情報を明らかにするだけでなく、時間間の依存関係を直接キャプチャすることもできる。
外観特徴、空間的位置、意味情報のフル活用は、ビデオベースのヒューマンオブジェクトインタラクション認識性能を改善する鍵でもある。
論文 参考訳(メタデータ) (2021-08-19T11:57:27Z) - Multi-Level Graph Encoding with Structural-Collaborative Relation
Learning for Skeleton-Based Person Re-Identification [11.303008512400893]
Skeletonベースの人物再識別(Re-ID)は、安全クリティカルなアプリケーションに優れた価値を提供する、新たなオープントピックである。
既存の方法は通常、手作りの特徴やモデル骨格のダイナミクスを体関節の軌跡から抽出する。
Re-IDの識別グラフ特徴を符号化するために,構造協調関係学習(MG-SCR)を用いたマルチレベルグラフ符号化手法を提案する。
論文 参考訳(メタデータ) (2021-06-06T09:09:57Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。