論文の概要: GID-Net: Detecting Human-Object Interaction with Global and Instance
Dependency
- arxiv url: http://arxiv.org/abs/2003.05242v1
- Date: Wed, 11 Mar 2020 11:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:49:41.531112
- Title: GID-Net: Detecting Human-Object Interaction with Global and Instance
Dependency
- Title(参考訳): GID-Net:グローバルおよびインスタンス依存によるヒューマンオブジェクトインタラクションの検出
- Authors: Dongming Yang, YueXian Zou, Jian Zhang, Ge Li
- Abstract要約: GIDブロックと呼ばれる2段階の訓練可能な推論機構を導入する。
GID-Netは、ヒューマンブランチ、オブジェクトブランチ、インタラクションブランチで構成される、人間とオブジェクトのインタラクション検出フレームワークである。
我々は,提案したGID-Netを,V-COCOとHICO-DETを含む2つの公開ベンチマーク上で既存の最先端手法と比較した。
- 参考スコア(独自算出の注目度): 67.95192190179975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since detecting and recognizing individual human or object are not adequate
to understand the visual world, learning how humans interact with surrounding
objects becomes a core technology. However, convolution operations are weak in
depicting visual interactions between the instances since they only build
blocks that process one local neighborhood at a time. To address this problem,
we learn from human perception in observing HOIs to introduce a two-stage
trainable reasoning mechanism, referred to as GID block. GID block breaks
through the local neighborhoods and captures long-range dependency of pixels
both in global-level and instance-level from the scene to help detecting
interactions between instances. Furthermore, we conduct a multi-stream network
called GID-Net, which is a human-object interaction detection framework
consisting of a human branch, an object branch and an interaction branch.
Semantic information in global-level and local-level are efficiently reasoned
and aggregated in each of the branches. We have compared our proposed GID-Net
with existing state-of-the-art methods on two public benchmarks, including
V-COCO and HICO-DET. The results have showed that GID-Net outperforms the
existing best-performing methods on both the above two benchmarks, validating
its efficacy in detecting human-object interactions.
- Abstract(参考訳): 人間や物体を検知し認識することは、視覚世界を理解するのに不十分であるため、人間が周囲の物体とどのように相互作用するかを学ぶことが、コア技術となる。
しかし、畳み込み操作は、一度に1つのローカル近所を処理するブロックだけを構築するため、インスタンス間の視覚的相互作用を表現するには弱い。
この問題に対処するために,HOIを観察する人間の知覚から学習し,GIDブロックと呼ばれる2段階のトレーニング可能な推論機構を導入する。
GIDブロックは局所的に破られ、グローバルレベルとインスタンスレベルの両方の画素の長距離依存をシーンから捉え、インスタンス間の相互作用を検出する。
さらに、人間の枝、対象枝、相互作用枝からなる人間とオブジェクトの相互作用検出フレームワークであるGID-Netと呼ばれるマルチストリームネットワークを運用する。
グローバルレベルとローカルレベルの意味情報を効率的に推論し、各ブランチに集約する。
我々は,提案したGID-Netを,V-COCOとHICO-DETを含む2つの公開ベンチマーク上で既存の最先端手法と比較した。
その結果、GID-Netは上記の2つのベンチマークにおいて、既存のベストパフォーマンス手法よりも優れており、人間と物体の相互作用を検出する上での有効性が検証された。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - Effective Actor-centric Human-object Interaction Detection [20.564689533862524]
画像中の人間と物体の相互作用を検出する新しいアクター中心のフレームワークを提案する。
提案手法は,挑戦的なV-COCOとHICO-DETベンチマークの最先端化を実現する。
論文 参考訳(メタデータ) (2022-02-24T10:24:44Z) - Exploiting Scene Graphs for Human-Object Interaction Detection [81.49184987430333]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)検出は、人間とオブジェクト間のインタラクションのローカライズと認識を目的とした、基本的な視覚的タスクである。
そこで本研究では,シーングラフを用いたヒューマン・オブジェクト・インタラクション(SG2HOI)検出タスクのための新しい手法を提案する。
SG2HOIはSG情報を2つの方法で組み込む:(1)シーングラフを世界的文脈の手がかりに埋め込み、シーン固有の環境コンテキストとして機能し、(2)オブジェクトの近傍から関係を収集し、それらを対話に転送するリレーショナル・アウェア・メッセージ・パッシング・モジュールを構築する。
論文 参考訳(メタデータ) (2021-08-19T09:40:50Z) - HOTR: End-to-End Human-Object Interaction Detection with Transformers [26.664864824357164]
そこで本研究では, HOTRが提唱する, 画像からヒト, オブジェクト, 相互作用> トリプレットの集合を直接予測する新しいフレームワークを提案する。
提案アルゴリズムは,2つのHOI検出ベンチマークにおいて,オブジェクト検出後1ms以下の推論時間で最新の性能を実現する。
論文 参考訳(メタデータ) (2021-04-28T10:10:29Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。