論文の概要: Interact-Custom: Customized Human Object Interaction Image Generation
- arxiv url: http://arxiv.org/abs/2508.19575v1
- Date: Wed, 27 Aug 2025 05:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.500464
- Title: Interact-Custom: Customized Human Object Interaction Image Generation
- Title(参考訳): Interact-Custom: カスタマイズされたヒューマンオブジェクトインタラクション画像生成
- Authors: Zhu Xu, Zhaowen Wang, Yuxin Peng, Yang Liu,
- Abstract要約: 本稿では,カスタマイズされたオブジェクトインタラクション画像生成の課題を提案する。
対象の人間の対象に対するアイデンティティの保存と、それら間の相互作用の意味制御が同時に必要である。
1)人間オブジェクトを自己完結したアイデンティティ特徴とポーズ指向のインタラクション特徴に分解する必要があるが、現在のHOI画像データセットはそのような特徴分解学習に理想的なサンプルを提供していない。
- 参考スコア(独自算出の注目度): 55.8752300907835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositional Customized Image Generation aims to customize multiple target concepts within generation content, which has gained attention for its wild application.Existing approaches mainly concentrate on the target entity's appearance preservation, while neglecting the fine-grained interaction control among target entities.To enable the model of such interaction control capability, we focus on human object interaction scenario and propose the task of Customized Human Object Interaction Image Generation(CHOI), which simultaneously requires identity preservation for target human object and the interaction semantic control between them.Two primary challenges exist for CHOI:(1)simultaneous identity preservation and interaction control demands require the model to decompose the human object into self-contained identity features and pose-oriented interaction features, while the current HOI image datasets fail to provide ideal samples for such feature-decomposed learning.(2)inappropriate spatial configuration between human and object may lead to the lack of desired interaction semantics.To tackle it, we first process a large-scale dataset, where each sample encompasses the same pair of human object involving different interactive poses.Then we design a two-stage model Interact-Custom, which firstly explicitly models the spatial configuration by generating a foreground mask depicting the interaction behavior, then under the guidance of this mask, we generate the target human object interacting while preserving their identities features.Furthermore, if the background image and the union location of where the target human object should appear are provided by users, Interact-Custom also provides the optional functionality to specify them, offering high content controllability. Extensive experiments on our tailored metrics for CHOI task demonstrate the effectiveness of our approach.
- Abstract(参考訳): 構成的カスタマイズ画像生成は、そのワイルドな用途に注目されている世代内の複数のターゲット概念をカスタマイズすることを目的としており、既存のアプローチは主にターゲットエンティティの外観保存に焦点を合わせながら、対象エンティティ間のきめ細かいインタラクション制御を無視することを目的としている。このようなインタラクション制御能力のモデルを可能にするために、ターゲットオブジェクトのアイデンティティ保存とそれら間のインタラクションセマンティックコントロールを同時に要求するカスタマイズされたヒューマンオブジェクトインタラクション画像生成(CHOI)を提案している。CHOIには2つの主要な課題がある:(1) 同時的なアイデンティティ保存とインタラクション制御には、人間オブジェクトを自己完結したアイデンティティ特徴とポーズ指向のインタラクション特徴に分解する必要がある。
2)人間と物体間の不適切な空間的構成は,望ましい相互作用のセマンティクスの欠如につながる可能性がある。それを解決するために,我々はまず,各サンプルが異なる対話的なポーズを含む同一の人間オブジェクトを包含する大規模なデータセットを処理し,まず2段階のモデルであるInteract-Customを設計する。
CHOIタスクに適したメトリクスに関する大規模な実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- HOComp: Interaction-Aware Human-Object Composition [62.93211305213214]
HOCompは、人中心の背景画像に前景オブジェクトを合成するための新しいアプローチである。
実験結果から,HOCompは一貫した外見を持つ人間と物体の相互作用を効果的に生成することが示された。
論文 参考訳(メタデータ) (2025-07-22T17:59:21Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Effective Actor-centric Human-object Interaction Detection [20.564689533862524]
画像中の人間と物体の相互作用を検出する新しいアクター中心のフレームワークを提案する。
提案手法は,挑戦的なV-COCOとHICO-DETベンチマークの最先端化を実現する。
論文 参考訳(メタデータ) (2022-02-24T10:24:44Z) - HOTR: End-to-End Human-Object Interaction Detection with Transformers [26.664864824357164]
そこで本研究では, HOTRが提唱する, 画像からヒト, オブジェクト, 相互作用> トリプレットの集合を直接予測する新しいフレームワークを提案する。
提案アルゴリズムは,2つのHOI検出ベンチマークにおいて,オブジェクト検出後1ms以下の推論時間で最新の性能を実現する。
論文 参考訳(メタデータ) (2021-04-28T10:10:29Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。