論文の概要: Interactiveness Field in Human-Object Interactions
- arxiv url: http://arxiv.org/abs/2204.07718v1
- Date: Sat, 16 Apr 2022 05:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 15:15:47.205011
- Title: Interactiveness Field in Human-Object Interactions
- Title(参考訳): 人間-物体相互作用における対話性場
- Authors: Xinpeng Liu, Yong-Lu Li, Xiaoqian Wu, Yu-Wing Tai, Cewu Lu, Chi-Keung
Tang
- Abstract要約: 画像中の物体が人間とペアリングした後、生成されたペアは、主に非対話的か、主に対話的かのいずれかである。
本研究では,対話型対と非対話型対の基底となる「相互作用性場」の濃度と差に基づく新しいエネルギー制約を提案する。
提案手法により,より高精度なペア検出が可能となり,HOI検出性能が大幅に向上する。
- 参考スコア(独自算出の注目度): 89.13149887013905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-Object Interaction (HOI) detection plays a core role in activity
understanding. Though recent two/one-stage methods have achieved impressive
results, as an essential step, discovering interactive human-object pairs
remains challenging. Both one/two-stage methods fail to effectively extract
interactive pairs instead of generating redundant negative pairs. In this work,
we introduce a previously overlooked interactiveness bimodal prior: given an
object in an image, after pairing it with the humans, the generated pairs are
either mostly non-interactive, or mostly interactive, with the former more
frequent than the latter. Based on this interactiveness bimodal prior we
propose the "interactiveness field". To make the learned field compatible with
real HOI image considerations, we propose new energy constraints based on the
cardinality and difference in the inherent "interactiveness field" underlying
interactive versus non-interactive pairs. Consequently, our method can detect
more precise pairs and thus significantly boost HOI detection performance,
which is validated on widely-used benchmarks where we achieve decent
improvements over state-of-the-arts. Our code is available at
https://github.com/Foruck/Interactiveness-Field.
- Abstract(参考訳): ヒューマン・オブジェクト・インタラクション(hoi)検出は、活動理解において重要な役割を果たす。
最近の2段階/1段階の手法は印象的な成果を上げているが、重要なステップとして人間と物体の対話的なペアの発見は依然として困難である。
どちらの手法も、冗長な負のペアを生成する代わりに、効果的に対話的なペアを抽出しない。
画像中の物体が人間とペアリングした後、生成されたペアは、主に非対話的か、主に対話的かのいずれかであり、前者の方が後者よりも頻繁に発生する。
この対話性バイモーダルに基づいて「対話性場」を提案する。
実際のHOI画像に適合させるため,対話型対と非対話型対の根底にある「相互作用性場」の濃度と差に基づく新しいエネルギー制約を提案する。
その結果,提案手法はより高精度なペアを検出し,HOI検出性能を大幅に向上させることができる。
私たちのコードはhttps://github.com/foruck/interactiveness-fieldで利用可能です。
関連論文リスト
- Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Detecting Human-to-Human-or-Object (H2O) Interactions with DIABOLO [29.0200561485714]
我々は,Human-to-Human-or-Object(H2O)という2種類のインタラクションを扱う新しいインタラクションデータセットを提案する。
さらに, 人間の身体的態度の記述に近づき, 周囲の相互作用の標的について記述することを目的とした, 動詞の新たな分類法を導入する。
提案手法は,1回のフォワードパスにおける全てのインタラクションを検出するための,効率的な主観中心単発撮影法であるDIABOLOを提案する。
論文 参考訳(メタデータ) (2022-01-07T11:00:11Z) - RR-Net: Injecting Interactive Semantics in Human-Object Interaction
Detection [40.65483058890176]
最新のエンドツーエンドHOI検出器は関係推論に欠けており、予測のためにHOI固有の対話的セマンティクスを学習できない。
まず、インタラクション推論のための新しい構造とパラメータ共有パターンをもたらす、プログレッシブな関係認識フレームを提案する。
上記のモジュールに基づいて、Relation Reasoning Network (abbr) というエンドツーエンドのトレーニング可能なフレームワークを構築します。
RR-Net)
論文 参考訳(メタデータ) (2021-04-30T14:03:10Z) - DIRV: Dense Interaction Region Voting for End-to-End Human-Object
Interaction Detection [53.40028068801092]
本稿では,HOI問題に対するインタラクション領域という新しい概念に基づいて,新しい一段階HOI検出手法を提案する。
従来の手法とは異なり,本手法は人-物対ごとに異なるスケールにわたる密集した相互作用領域に焦点をあてる。
単一相互作用領域の検出欠陥を補うために,我々は新しい投票戦略を導入する。
論文 参考訳(メタデータ) (2020-10-02T13:57:58Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。