論文の概要: Visual-Semantic Graph Attention Networks for Human-Object Interaction
Detection
- arxiv url: http://arxiv.org/abs/2001.02302v6
- Date: Sat, 6 Mar 2021 05:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:34:18.045368
- Title: Visual-Semantic Graph Attention Networks for Human-Object Interaction
Detection
- Title(参考訳): 人-物体相互作用検出のための視覚意味グラフ注意ネットワーク
- Authors: Zhijun Liang, Juan Rojas, Junfa Liu, Yisheng Guan
- Abstract要約: Human-Object Interaction (HOI) Detections infers the action predicate on a human, predicate, object> triplet。
本稿では,グラフネットワークを通じて得られる補助関係の曖昧な貢献について検討する。
本研究では,視覚的,空間的,意味的な情報を効果的に集約するデュアルグラフアテンションネットワークを提案する。
- 参考スコア(独自算出の注目度): 6.161066669674775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In scene understanding, robotics benefit from not only detecting individual
scene instances but also from learning their possible interactions.
Human-Object Interaction (HOI) Detection infers the action predicate on a
<human, predicate, object> triplet. Contextual information has been found
critical in inferring interactions. However, most works only use local features
from single human-object pair for inference. Few works have studied the
disambiguating contribution of subsidiary relations made available via graph
networks. Similarly, few have learned to effectively leverage visual cues along
with the intrinsic semantic regularities contained in HOIs. We contribute a
dual-graph attention network that effectively aggregates contextual visual,
spatial, and semantic information dynamically from primary human-object
relations as well as subsidiary relations through attention mechanisms for
strong disambiguating power. We achieve comparable results on two benchmarks:
V-COCO and HICO-DET. Code is available at
\url{https://github.com/birlrobotics/vs-gats}.
- Abstract(参考訳): シーン理解では、ロボットは個々のシーンのインスタンスを検知するだけでなく、対話の可能性を学習する。
human-object interaction (hoi) 検出は、<human, predicate, object> トリプレット上のアクション述語を推論する。
文脈情報は相互作用を推測するのに重要なものである。
しかしながら、ほとんどの作業では推論に人間とオブジェクトのペアのローカル機能のみを使用する。
グラフネットワークで利用可能な子会社関係の曖昧な貢献についての研究は少ない。
同様に、HOIに含まれる本質的な意味規則とともに視覚的手がかりを効果的に活用することを学ぶ人は少ない。
本研究では,視覚的,空間的,意味的な情報を主目的関係から動的に集約するデュアルグラフアテンションネットワークを提案する。
V-COCOとHICO-DETの2つのベンチマークで比較結果を得た。
コードは \url{https://github.com/birlrobotics/vs-gats} で入手できる。
関連論文リスト
- Knowledge Guided Bidirectional Attention Network for Human-Object
Interaction Detection [3.0915392100355192]
HOIにおけるボトムアップ構文解析戦略の独立的利用は直感に反し、注意の拡散につながる可能性があると論じる。
HOIに新たな知識誘導型トップダウンアテンションを導入し、関係解析を「ルックアンドサーチ」プロセスとしてモデル化することを提案する。
一つのエンコーダ-デコーダモデルでボトムアップとトップダウンの注意を統一することで、プロセスを実装します。
論文 参考訳(メタデータ) (2022-07-16T16:42:49Z) - Interactiveness Field in Human-Object Interactions [89.13149887013905]
画像中の物体が人間とペアリングした後、生成されたペアは、主に非対話的か、主に対話的かのいずれかである。
本研究では,対話型対と非対話型対の基底となる「相互作用性場」の濃度と差に基づく新しいエネルギー制約を提案する。
提案手法により,より高精度なペア検出が可能となり,HOI検出性能が大幅に向上する。
論文 参考訳(メタデータ) (2022-04-16T05:09:25Z) - Detecting Human-to-Human-or-Object (H2O) Interactions with DIABOLO [29.0200561485714]
我々は,Human-to-Human-or-Object(H2O)という2種類のインタラクションを扱う新しいインタラクションデータセットを提案する。
さらに, 人間の身体的態度の記述に近づき, 周囲の相互作用の標的について記述することを目的とした, 動詞の新たな分類法を導入する。
提案手法は,1回のフォワードパスにおける全てのインタラクションを検出するための,効率的な主観中心単発撮影法であるDIABOLOを提案する。
論文 参考訳(メタデータ) (2022-01-07T11:00:11Z) - Exploiting Scene Graphs for Human-Object Interaction Detection [81.49184987430333]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)検出は、人間とオブジェクト間のインタラクションのローカライズと認識を目的とした、基本的な視覚的タスクである。
そこで本研究では,シーングラフを用いたヒューマン・オブジェクト・インタラクション(SG2HOI)検出タスクのための新しい手法を提案する。
SG2HOIはSG情報を2つの方法で組み込む:(1)シーングラフを世界的文脈の手がかりに埋め込み、シーン固有の環境コンテキストとして機能し、(2)オブジェクトの近傍から関係を収集し、それらを対話に転送するリレーショナル・アウェア・メッセージ・パッシング・モジュールを構築する。
論文 参考訳(メタデータ) (2021-08-19T09:40:50Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。