論文の概要: Learning Human-Object Interaction Detection using Interaction Points
- arxiv url: http://arxiv.org/abs/2003.14023v1
- Date: Tue, 31 Mar 2020 08:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:15:03.006422
- Title: Learning Human-Object Interaction Detection using Interaction Points
- Title(参考訳): インタラクションポイントを用いた物体間インタラクション検出の学習
- Authors: Tiancai Wang and Tong Yang and Martin Danelljan and Fahad Shahbaz Khan
and Xiangyu Zhang and Jian Sun
- Abstract要約: 本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
- 参考スコア(独自算出の注目度): 140.0200950601552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding interactions between humans and objects is one of the
fundamental problems in visual classification and an essential step towards
detailed scene understanding. Human-object interaction (HOI) detection strives
to localize both the human and an object as well as the identification of
complex interactions between them. Most existing HOI detection approaches are
instance-centric where interactions between all possible human-object pairs are
predicted based on appearance features and coarse spatial information. We argue
that appearance features alone are insufficient to capture complex human-object
interactions. In this paper, we therefore propose a novel fully-convolutional
approach that directly detects the interactions between human-object pairs. Our
network predicts interaction points, which directly localize and classify the
inter-action. Paired with the densely predicted interaction vectors, the
interactions are associated with human and object detections to obtain final
predictions. To the best of our knowledge, we are the first to propose an
approach where HOI detection is posed as a keypoint detection and grouping
problem. Experiments are performed on two popular benchmarks: V-COCO and
HICO-DET. Our approach sets a new state-of-the-art on both datasets. Code is
available at https://github.com/vaesl/IP-Net.
- Abstract(参考訳): 人間と物体の相互作用を理解することは、視覚分類における根本的な問題の一つであり、詳細なシーン理解への重要なステップである。
human-object interaction (hoi) 検出は、人間と物体の両方の局所化と、それらの間の複雑な相互作用の同定を試みている。
既存のHOI検出手法の多くは、外見の特徴と粗い空間情報に基づいて、可能なすべてのオブジェクト対間の相互作用を予測するインスタンス中心である。
外観だけでは複雑な人間と物体の相互作用を捉えるには不十分である。
そこで本研究では,人間と物体の相互作用を直接検出する完全畳み込み手法を提案する。
ネットワークはインタラクションポイントを予測し、その相互作用を直接ローカライズし、分類する。
密接な予測された相互作用ベクトルにより、相互作用は人間と物体の検出と関連付けられ、最終的な予測が得られる。
我々の知る限りでは、HOI検出をキーポイント検出およびグループ化問題として提示するアプローチを最初に提案する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
このアプローチは、両方のデータセットに新しい最先端を設定します。
コードはhttps://github.com/vaesl/IP-Netで入手できる。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - UnionDet: Union-Level Detector Towards Real-Time Human-Object
Interaction Detection [35.2385914946471]
本稿では,新しい結合レベル検出器を用いたHOI検出のための一段階メタアーキテクチャを提案する。
ヒトと物体の相互作用の1段階検出器は、相互作用予測時間4x14xを著しく減少させる。
論文 参考訳(メタデータ) (2023-12-19T23:34:43Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Detecting Human-to-Human-or-Object (H2O) Interactions with DIABOLO [29.0200561485714]
我々は,Human-to-Human-or-Object(H2O)という2種類のインタラクションを扱う新しいインタラクションデータセットを提案する。
さらに, 人間の身体的態度の記述に近づき, 周囲の相互作用の標的について記述することを目的とした, 動詞の新たな分類法を導入する。
提案手法は,1回のフォワードパスにおける全てのインタラクションを検出するための,効率的な主観中心単発撮影法であるDIABOLOを提案する。
論文 参考訳(メタデータ) (2022-01-07T11:00:11Z) - Exploiting Scene Graphs for Human-Object Interaction Detection [81.49184987430333]
ヒューマン・オブジェクト・インタラクション(Human-Object Interaction,HOI)検出は、人間とオブジェクト間のインタラクションのローカライズと認識を目的とした、基本的な視覚的タスクである。
そこで本研究では,シーングラフを用いたヒューマン・オブジェクト・インタラクション(SG2HOI)検出タスクのための新しい手法を提案する。
SG2HOIはSG情報を2つの方法で組み込む:(1)シーングラフを世界的文脈の手がかりに埋め込み、シーン固有の環境コンテキストとして機能し、(2)オブジェクトの近傍から関係を収集し、それらを対話に転送するリレーショナル・アウェア・メッセージ・パッシング・モジュールを構築する。
論文 参考訳(メタデータ) (2021-08-19T09:40:50Z) - GTNet:Guided Transformer Network for Detecting Human-Object Interactions [10.809778265707916]
人-物間相互作用(Human-object Interaction、HOI)検出タスクは、人間を局所化し、対象を局所化し、各人-物間の相互作用を予測する。
HOIを検出するためには,相対的な空間構成やオブジェクトの意味論を利用して,画像の空間領域の空間領域を見つけることが重要である。
この問題は、自己注意に基づくガイド型トランスネットワークであるGTNetによって解決されている。
論文 参考訳(メタデータ) (2021-08-02T02:06:33Z) - Transferable Interactiveness Knowledge for Human-Object Interaction
Detection [46.89715038756862]
我々は,人間と物体が相互に相互作用するか否かを示す対話性知識を探索する。
対話性に関する知識は、HOIデータセット全体で学習でき、多様なHOIカテゴリ設定のギャップを埋めることができる。
私たちのコアアイデアは、対話性ネットワークを利用して、複数のHOIデータセットから一般的な対話性知識を学ぶことです。
論文 参考訳(メタデータ) (2021-01-25T18:21:07Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。