論文の概要: Pose-based Modular Network for Human-Object Interaction Detection
- arxiv url: http://arxiv.org/abs/2008.02042v1
- Date: Wed, 5 Aug 2020 10:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:20:14.994768
- Title: Pose-based Modular Network for Human-Object Interaction Detection
- Title(参考訳): 人物間相互作用検出のためのPose-based Modular Network
- Authors: Zhijun Liang, Junfa Liu, Yisheng Guan, and Juan Rojas
- Abstract要約: 提案するPose-based Modular Network (PMN) は,絶対的なポーズ特徴と相対的な空間的ポーズ特徴を探索し,HOI検出を改善する。
提案手法を評価するため,VS-GATと呼ばれる最新技術モデルと組み合わせ,2つの公開ベンチマークにおいて大幅な改善が得られた。
- 参考スコア(独自算出の注目度): 5.6397911482914385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-object interaction(HOI) detection is a critical task in scene
understanding. The goal is to infer the triplet <subject, predicate, object> in
a scene. In this work, we note that the human pose itself as well as the
relative spatial information of the human pose with respect to the target
object can provide informative cues for HOI detection. We contribute a
Pose-based Modular Network (PMN) which explores the absolute pose features and
relative spatial pose features to improve HOI detection and is fully compatible
with existing networks. Our module consists of a branch that first processes
the relative spatial pose features of each joint independently. Another branch
updates the absolute pose features via fully connected graph structures. The
processed pose features are then fed into an action classifier. To evaluate our
proposed method, we combine the module with the state-of-the-art model named
VS-GATs and obtain significant improvement on two public benchmarks: V-COCO and
HICO-DET, which shows its efficacy and flexibility. Code is available at
\url{https://github.com/birlrobotics/PMN}.
- Abstract(参考訳): 人間-オブジェクト間インタラクション(hoi)検出は、シーン理解において重要なタスクである。
目標はシーン内の三重項<subject, predicate, object>を推論することである。
本研究では,人間のポーズ自体と,対象物に対する人間のポーズの相対的空間的情報とが,HOI検出のための情報的手がかりとなることを指摘する。
我々は Pose-based Modular Network (PMN) に貢献し、HOI 検出を改善するために絶対的なポーズ特徴と相対的な空間的ポーズ特徴を探索し、既存のネットワークと完全に互換性がある。
我々のモジュールは、まず各関節の相対的な空間的ポーズ特徴を独立に処理する枝から構成される。
別のブランチは、完全に連結されたグラフ構造を通じて絶対的なポーズ機能を更新する。
処理されたポーズ機能はアクション分類器に送られる。
提案手法を評価するため,VS-GATsと呼ばれる最新技術モデルと組み合わせて,V-COCOとHICO-DETの2つの公開ベンチマークを改良し,その有効性と柔軟性を示した。
コードは \url{https://github.com/birlrobotics/PMN} で入手できる。
関連論文リスト
- A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - HOKEM: Human and Object Keypoint-based Extension Module for Human-Object
Interaction Detection [1.2183405753834557]
本稿では、従来の検出モデルの精度を向上させるために、人およびオブジェクトキーポイントベースの拡張モジュール(HOKEM)を使いやすい拡張モジュールとして提案する。
HOIデータセットであるV-COCOを用いた実験では、HOKEMが外観ベースモデルの精度を大きなマージンで向上させた。
論文 参考訳(メタデータ) (2023-06-25T14:40:26Z) - ViPLO: Vision Transformer based Pose-Conditioned Self-Loop Graph for
Human-Object Interaction Detection [20.983998911754792]
2段階のHuman-Object Interaction (HOI)検出器は1段階法よりも性能が低い。
これらの問題を解決するために視覚変換器を用いたPose-Conditioned Self-Loop Graph (ViPLO)を提案する。
ViPLOは2つの公開ベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-04-17T09:44:54Z) - A Skeleton-aware Graph Convolutional Network for Human-Object
Interaction Detection [14.900704382194013]
そこで我々は,SGCN4HOIという人-物間相互作用検出のためのスケルトン対応グラフ畳み込みネットワークを提案する。
我々のネットワークは、人間のキーポイントとオブジェクトキーポイントの間の空間的接続を利用して、グラフの畳み込みによるきめ細かい構造的相互作用を捉えます。
このような幾何学的特徴と視覚的特徴と、人間と物体のペアから得られる空間的構成特徴を融合させる。
論文 参考訳(メタデータ) (2022-07-11T15:20:18Z) - Exploiting Scene Graphs for Human-Object Interaction Detection [81.49184987430333]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)検出は、人間とオブジェクト間のインタラクションのローカライズと認識を目的とした、基本的な視覚的タスクである。
そこで本研究では,シーングラフを用いたヒューマン・オブジェクト・インタラクション(SG2HOI)検出タスクのための新しい手法を提案する。
SG2HOIはSG情報を2つの方法で組み込む:(1)シーングラフを世界的文脈の手がかりに埋め込み、シーン固有の環境コンテキストとして機能し、(2)オブジェクトの近傍から関係を収集し、それらを対話に転送するリレーショナル・アウェア・メッセージ・パッシング・モジュールを構築する。
論文 参考訳(メタデータ) (2021-08-19T09:40:50Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Attention-based Joint Detection of Object and Semantic Part [4.389917490809522]
我々のモデルは2つのFaster-RCNNモデルに基づいて作成され、それらの特徴を共有して両方の表現を拡張します。
PASCAL-Part 2010データセットの実験では、関節検出は物体検出と部分検出の両方を同時に改善できることが示された。
論文 参考訳(メタデータ) (2020-07-05T18:54:10Z) - Spatial Priming for Detecting Human-Object Interactions [89.22921959224396]
画像中の人-物間相互作用(HOI)を検出するために,空間的レイアウト情報を利用する手法を提案する。
提案手法は,視覚モジュールを初期化して人間と物体の相互作用のタイプを予測するレイアウトモジュールから構成される。
提案したモデルでは、HICO-DetデータセットのmAPが24.79%に達し、これは現在の最先端よりも約2.8%高い。
論文 参考訳(メタデータ) (2020-04-09T23:20:30Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。