論文の概要: A Skeleton-aware Graph Convolutional Network for Human-Object
Interaction Detection
- arxiv url: http://arxiv.org/abs/2207.05733v1
- Date: Mon, 11 Jul 2022 15:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 05:29:55.414699
- Title: A Skeleton-aware Graph Convolutional Network for Human-Object
Interaction Detection
- Title(参考訳): 人-物体相互作用検出のための骨格対応グラフ畳み込みネットワーク
- Authors: Manli Zhu, Edmond S. L. Ho and Hubert P. H. Shum
- Abstract要約: そこで我々は,SGCN4HOIという人-物間相互作用検出のためのスケルトン対応グラフ畳み込みネットワークを提案する。
我々のネットワークは、人間のキーポイントとオブジェクトキーポイントの間の空間的接続を利用して、グラフの畳み込みによるきめ細かい構造的相互作用を捉えます。
このような幾何学的特徴と視覚的特徴と、人間と物体のペアから得られる空間的構成特徴を融合させる。
- 参考スコア(独自算出の注目度): 14.900704382194013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting human-object interactions is essential for comprehensive
understanding of visual scenes. In particular, spatial connections between
humans and objects are important cues for reasoning interactions. To this end,
we propose a skeleton-aware graph convolutional network for human-object
interaction detection, named SGCN4HOI. Our network exploits the spatial
connections between human keypoints and object keypoints to capture their
fine-grained structural interactions via graph convolutions. It fuses such
geometric features with visual features and spatial configuration features
obtained from human-object pairs. Furthermore, to better preserve the object
structural information and facilitate human-object interaction detection, we
propose a novel skeleton-based object keypoints representation. The performance
of SGCN4HOI is evaluated in the public benchmark V-COCO dataset. Experimental
results show that the proposed approach outperforms the state-of-the-art
pose-based models and achieves competitive performance against other models.
- Abstract(参考訳): 視覚シーンの包括的理解には,人間と物体の相互作用の検出が不可欠である。
特に、人間と物体の間の空間的つながりは、相互作用を推論するための重要な手がかりである。
そこで本研究では,SGCN4HOIという人-物間相互作用検出のためのスケルトン対応グラフ畳み込みネットワークを提案する。
我々のネットワークは、人間のキーポイントとオブジェクトキーポイントの間の空間的接続を利用して、グラフの畳み込みによるきめ細かい構造的相互作用を捉える。
視覚的特徴と人間と物体のペアから得られる空間的特徴を融合させる。
さらに,オブジェクトの構造情報を保存し,人間とオブジェクトのインタラクション検出を容易にするために,新しい骨格ベースのオブジェクトキーポイント表現を提案する。
SGCN4HOIの性能は、公開ベンチマークV-COCOデータセットで評価される。
実験の結果,提案手法は最先端のポーズベースモデルよりも優れ,他のモデルと競合する性能が得られた。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - From Category to Scenery: An End-to-End Framework for Multi-Person Human-Object Interaction Recognition in Videos [9.159660801125812]
ビデオベースのヒューマンオブジェクトインタラクション(HOI)認識は、人間とオブジェクトの間の複雑なダイナミクスを探索する。
本研究では,シーンフレームワークCATSに新たなエンドツーエンドカテゴリを提案する。
我々は,これらの拡張幾何学的視覚的特徴をノードとして構成し,人間とオブジェクトのカテゴリ間の関係を学習する。
論文 参考訳(メタデータ) (2024-07-01T02:42:55Z) - HOKEM: Human and Object Keypoint-based Extension Module for Human-Object
Interaction Detection [1.2183405753834557]
本稿では、従来の検出モデルの精度を向上させるために、人およびオブジェクトキーポイントベースの拡張モジュール(HOKEM)を使いやすい拡張モジュールとして提案する。
HOIデータセットであるV-COCOを用いた実験では、HOKEMが外観ベースモデルの精度を大きなマージンで向上させた。
論文 参考訳(メタデータ) (2023-06-25T14:40:26Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Spatio-Temporal Interaction Graph Parsing Networks for Human-Object
Interaction Recognition [55.7731053128204]
ビデオに基づくヒューマンオブジェクトインタラクションシーンでは、人間とオブジェクトの時間的関係をモデル化することが、ビデオに提示されるコンテキスト情報を理解するための重要な手がかりである。
実効時間関係モデリングでは、各フレームの文脈情報を明らかにするだけでなく、時間間の依存関係を直接キャプチャすることもできる。
外観特徴、空間的位置、意味情報のフル活用は、ビデオベースのヒューマンオブジェクトインタラクション認識性能を改善する鍵でもある。
論文 参考訳(メタデータ) (2021-08-19T11:57:27Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z) - VSGNet: Spatial Attention Network for Detecting Human Object
Interactions Using Graph Convolutions [13.83595180218225]
相対的な空間的推論とオブジェクト間の構造的接続は、相互作用を分析するための重要な手段である。
提案したVisual-Spatial-Graph Network (VSGNet)アーキテクチャは、人間とオブジェクトのペアから視覚的特徴を抽出する。
VSGNetは、V-COCOでは8%または4mAP、HICO-DETでは16%または3mAPで最先端のソリューションを上回っている。
論文 参考訳(メタデータ) (2020-03-11T22:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。