論文の概要: Detecting Human-Object Interaction via Fabricated Compositional Learning
- arxiv url: http://arxiv.org/abs/2103.08214v1
- Date: Mon, 15 Mar 2021 08:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:06:59.842759
- Title: Detecting Human-Object Interaction via Fabricated Compositional Learning
- Title(参考訳): 合成学習による物体間相互作用の検出
- Authors: Zhi Hou, Baosheng Yu, Yu Qiao, Xiaojiang Peng, Dacheng Tao
- Abstract要約: ヒューマンオブジェクトインタラクション(HOI)検出は、高レベルのシーン理解のための基本的なタスクです。
人間は珍しいまたは見えないHOIのサンプルを認識する非常に強力な構成知覚能力があります。
オープン長尾HOI検出の課題を解決するために,FCL(Fabricated Compositional Learning)を提案する。
- 参考スコア(独自算出の注目度): 106.37536031160282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-Object Interaction (HOI) detection, inferring the relationships between
human and objects from images/videos, is a fundamental task for high-level
scene understanding. However, HOI detection usually suffers from the open
long-tailed nature of interactions with objects, while human has extremely
powerful compositional perception ability to cognize rare or unseen HOI
samples. Inspired by this, we devise a novel HOI compositional learning
framework, termed as Fabricated Compositional Learning (FCL), to address the
problem of open long-tailed HOI detection. Specifically, we introduce an object
fabricator to generate effective object representations, and then combine verbs
and fabricated objects to compose new HOI samples. With the proposed object
fabricator, we are able to generate large-scale HOI samples for rare and unseen
categories to alleviate the open long-tailed issues in HOI detection. Extensive
experiments on the most popular HOI detection dataset, HICO-DET, demonstrate
the effectiveness of the proposed method for imbalanced HOI detection and
significantly improve the state-of-the-art performance on rare and unseen HOI
categories. Code is available at https://github.com/zhihou7/FCL.
- Abstract(参考訳): 画像やビデオから人間と物体の関係を推定するHuman-Object Interaction (HOI) 検出は、高レベルのシーン理解の基本的な課題である。
しかし、HOI検出は通常、オブジェクトとの相互作用の開いた長い尾の性質に苦しむ一方、人間はまれまたは見えないHOIサンプルを認識する非常に強力な組成知覚能力を有する。
これから着想を得て、オープン長尾HOI検出の問題に対処するために、製造構成学習(Fabricated Compositional Learning、FCL)と呼ばれる新しいHOI構成学習フレームワークを考案しました。
具体的には,効果的なオブジェクト表現を生成し,動詞と合成オブジェクトを組み合わせて新しいhoiサンプルを生成するオブジェクト作成器を提案する。
提案するオブジェクトファブリケータにより,比較的希少なカテゴリを対象とした大規模HOIサンプルを作成でき,HOI検出における長期化問題を緩和できる。
最も一般的なHOI検出データセットであるHICO-DETの大規模な実験は、不均衡なHOI検出のための提案手法の有効性を実証し、希少かつ未確認のHOIカテゴリにおける最先端性能を著しく改善した。
コードはhttps://github.com/zhihou7/FCLで入手できる。
関連論文リスト
- A Review of Human-Object Interaction Detection [6.1941885271010175]
ヒトと物体の相互作用(HOI)の検出は、高レベルの視覚的理解において重要な役割を果たす。
本稿では,画像に基づくHOI検出における最近の研究を体系的に要約し,考察する。
論文 参考訳(メタデータ) (2024-08-20T08:32:39Z) - UnionDet: Union-Level Detector Towards Real-Time Human-Object
Interaction Detection [35.2385914946471]
本稿では,新しい結合レベル検出器を用いたHOI検出のための一段階メタアーキテクチャを提案する。
ヒトと物体の相互作用の1段階検出器は、相互作用予測時間4x14xを著しく減少させる。
論文 参考訳(メタデータ) (2023-12-19T23:34:43Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - Weakly-Supervised HOI Detection from Interaction Labels Only and
Language/Vision-Language Priors [36.75629570208193]
人-物相互作用検出(Human-object Interaction, HOI)は、人-物対とその相互作用カテゴリを、与えられた自然な画像から抽出することを目的としている。
本稿では,画像レベルのインタラクションラベルのみを用いて,文献における最も弱い監視設定によるHOI検出に取り組む。
まず,非相互作用型人間とオブジェクトの提案を駆使して,バッグ内の正の対の質を高める手法を提案する。
第2に、大きな言語モデルを使用して、人間とオブジェクトのカテゴリ間の相互作用を問合せし、モデルを強調しないよう強制する。
論文 参考訳(メタデータ) (2023-03-09T19:08:02Z) - Affordance Transfer Learning for Human-Object Interaction Detection [106.37536031160282]
新規なオブジェクトとHOIを共同検出し、アワアンスを認識するアワアンス転送学習手法を紹介します。
具体的には、HOI表現はアペアランスとオブジェクト表現の組み合わせに分離することができる。
提案された代価移動学習により、モデルは既知の代価表現から新規な対象の代価を推測することができる。
論文 参考訳(メタデータ) (2021-04-07T02:37:04Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Visual Compositional Learning for Human-Object Interaction Detection [111.05263071111807]
人間-物体相互作用(Human-Object Interaction,HOI)は、画像中の人間と物体の関係を局所化し、推測することを目的としている。
オブジェクトと動詞の型の組み合わせの膨大な数が、長い尾の分布を形成するため、これは難しい。
私たちは、この問題に効果的に対処するための、シンプルで効率的なフレームワークである、深いビジュアルコンポジション学習フレームワークを考案しました。
論文 参考訳(メタデータ) (2020-07-24T08:37:40Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。