論文の概要: DecAug: Augmenting HOI Detection via Decomposition
- arxiv url: http://arxiv.org/abs/2010.01007v1
- Date: Fri, 2 Oct 2020 13:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:50:52.186840
- Title: DecAug: Augmenting HOI Detection via Decomposition
- Title(参考訳): DecAug:分解によるHOI検出の強化
- Authors: Yichen Xie, Hao-Shu Fang, Dian Shao, Yong-Lu Li, Cewu Lu
- Abstract要約: 現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
- 参考スコア(独自算出の注目度): 54.65572599920679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-object interaction (HOI) detection requires a large amount of annotated
data. Current algorithms suffer from insufficient training samples and category
imbalance within datasets. To increase data efficiency, in this paper, we
propose an efficient and effective data augmentation method called DecAug for
HOI detection. Based on our proposed object state similarity metric, object
patterns across different HOIs are shared to augment local object appearance
features without changing their state. Further, we shift spatial correlation
between humans and objects to other feasible configurations with the aid of a
pose-guided Gaussian Mixture Model while preserving their interactions.
Experiments show that our method brings up to 3.3 mAP and 1.6 mAP improvements
on V-COCO and HICODET dataset for two advanced models. Specifically,
interactions with fewer samples enjoy more notable improvement. Our method can
be easily integrated into various HOI detection models with negligible extra
computational consumption. Our code will be made publicly available.
- Abstract(参考訳): human-object interaction (hoi) 検出には大量の注釈データが必要である。
現在のアルゴリズムは、トレーニングサンプルの不足とデータセット内のカテゴリの不均衡に苦しむ。
本稿では,データ効率を向上させるために,HOI検出のためのDecAugと呼ばれる効率的なデータ拡張手法を提案する。
提案するオブジェクト状態類似度メトリクスに基づいて、異なるhoisにまたがるオブジェクトパターンを共有して、状態を変更することなく、ローカルなオブジェクト外観機能を強化します。
さらに,ポーズ誘導ガウス混合モデルを用いて,人間と物体間の空間相関を他の実現可能な構成にシフトする。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
特に、少ないサンプルとの相互作用は、より顕著な改善を享受する。
本手法は,余分な計算量で容易に様々なHOI検出モデルに組み込むことができる。
私たちのコードは公開されます。
関連論文リスト
- Data Augmentation for Image Classification using Generative AI [8.74488498507946]
データ拡張はデータセットのサイズを拡大するための有望なソリューションである。
最近のアプローチでは、生成AIモデルを使用してデータセットの多様性を改善している。
我々はAGA(Automated Generative Data Augmentation)を提案する。
論文 参考訳(メタデータ) (2024-08-31T21:16:43Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - Boosting Human-Object Interaction Detection with Text-to-Image Diffusion
Model [22.31860516617302]
本稿では,事前学習したテキスト画像拡散モデルに基づく新しいHOI検出方式であるDiffHOIを紹介する。
HOIデータセットのギャップを埋めるために、クラスバランス、大規模、高多様性の合成データセットであるSynHOIを提案する。
実験により、DiffHOIは通常の検出(41.50 mAP)とゼロショット検出において、最先端の技術を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2023-05-20T17:59:23Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Detecting Human-Object Interaction via Fabricated Compositional Learning [106.37536031160282]
ヒューマンオブジェクトインタラクション(HOI)検出は、高レベルのシーン理解のための基本的なタスクです。
人間は珍しいまたは見えないHOIのサンプルを認識する非常に強力な構成知覚能力があります。
オープン長尾HOI検出の課題を解決するために,FCL(Fabricated Compositional Learning)を提案する。
論文 参考訳(メタデータ) (2021-03-15T08:52:56Z) - Visual Compositional Learning for Human-Object Interaction Detection [111.05263071111807]
人間-物体相互作用(Human-Object Interaction,HOI)は、画像中の人間と物体の関係を局所化し、推測することを目的としている。
オブジェクトと動詞の型の組み合わせの膨大な数が、長い尾の分布を形成するため、これは難しい。
私たちは、この問題に効果的に対処するための、シンプルで効率的なフレームワークである、深いビジュアルコンポジション学習フレームワークを考案しました。
論文 参考訳(メタデータ) (2020-07-24T08:37:40Z) - Asynchronous Interaction Aggregation for Action Detection [43.34864954534389]
本稿では,異なるインタラクションを活用して動作検出を促進する非同期インタラクション集約ネットワーク(AIA)を提案する。
ひとつはインタラクション集約構造(IA)で、複数のタイプのインタラクションをモデル化し統合するための一様パラダイムを採用し、もうひとつはパフォーマンス向上を実現するための非同期メモリ更新アルゴリズム(AMU)です。
論文 参考訳(メタデータ) (2020-04-16T07:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。