論文の概要: AMICO: Amodal Instance Composition
- arxiv url: http://arxiv.org/abs/2210.05828v1
- Date: Tue, 11 Oct 2022 23:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:16:16.939066
- Title: AMICO: Amodal Instance Composition
- Title(参考訳): AMICO: Amodalインスタンスの構成
- Authors: Peiye Zhuang, Jia-bin Huang, Ayush Saraf, Xuejian Rong, Changil Kim,
Denis Demandolx
- Abstract要約: 画像合成は、複数のオブジェクトをブレンドして調和した画像を形成することを目的としている。
対象画像に不完全なオブジェクトをブレンドするためのアモーダルインスタンス構成を提案する。
本結果は,COCOAおよびKINSベンチマークにおける最先端性能を示す。
- 参考スコア(独自算出の注目度): 40.03865667370814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image composition aims to blend multiple objects to form a harmonized image.
Existing approaches often assume precisely segmented and intact objects. Such
assumptions, however, are hard to satisfy in unconstrained scenarios. We
present Amodal Instance Composition for compositing imperfect -- potentially
incomplete and/or coarsely segmented -- objects onto a target image. We first
develop object shape prediction and content completion modules to synthesize
the amodal contents. We then propose a neural composition model to blend the
objects seamlessly. Our primary technical novelty lies in using separate
foreground/background representations and blending mask prediction to alleviate
segmentation errors. Our results show state-of-the-art performance on public
COCOA and KINS benchmarks and attain favorable visual results across diverse
scenes. We demonstrate various image composition applications such as object
insertion and de-occlusion.
- Abstract(参考訳): 画像合成は、複数のオブジェクトをブレンドして調和した画像を形成することを目的としている。
既存のアプローチは、しばしば正確に区切られた、そして無傷なオブジェクトを仮定する。
しかし、そのような仮定は制約のないシナリオでは満たせない。
対象画像に不完全なオブジェクト -- 潜在的に不完全かつ/または粗いセグメンテーションを持つ -- を合成するためのamodalインスタンス構成を提案する。
まず,オブジェクト形状予測とコンテンツ補完モジュールを開発し,アモーダルコンテンツを合成する。
次に,オブジェクトをシームレスにブレンドするニューラルコンポジションモデルを提案する。
我々の主な技術的特徴は、前景/後景表現を分離し、マスク予測をブレンドしてセグメンテーションエラーを軽減することである。
以上の結果から,COCOAおよびKINSベンチマークの最先端性能と,様々な場面での視覚的結果が得られた。
オブジェクト挿入や非閉塞化などの様々な画像合成応用を実演する。
関連論文リスト
- FreeCompose: Generic Zero-Shot Image Composition with Diffusion Prior [50.0535198082903]
我々は,複数の入力イメージを単一のコヒーレントなイメージに統合する,新しい画像合成手法を提案する。
本稿では, 大規模事前学習拡散モデルに内在する強力な生成的前駆体を利用して, 汎用画像合成を実現する可能性を示す。
論文 参考訳(メタデータ) (2024-07-06T03:35:43Z) - Neural Congealing: Aligning Images to a Joint Semantic Atlas [14.348512536556413]
画像の集合を横断的に意味的に共通するコンテンツを調整するための,ゼロショットの自己教師型フレームワークを提案する。
提案手法は,DINO-ViTの事前学習能力を利用して学習する。
提案手法は,大規模データセットに対する広範囲なトレーニングを必要とする最先端の手法と比較して,好適に動作することを示す。
論文 参考訳(メタデータ) (2023-02-08T09:26:22Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - DisPositioNet: Disentangled Pose and Identity in Semantic Image
Manipulation [83.51882381294357]
DisPositioNetは、シーングラフを用いた画像操作のタスクに対して、各オブジェクトのアンタングル表現を学習するモデルである。
我々のフレームワークは、グラフ内の特徴表現と同様に、変分潜在埋め込みの切り離しを可能にする。
論文 参考訳(メタデータ) (2022-11-10T11:47:37Z) - LayoutBERT: Masked Language Layout Model for Object Insertion [3.4806267677524896]
本稿では,オブジェクト挿入タスクのためのレイアウトBERTを提案する。
これは、新しい自己監督型マスク付き言語モデルと双方向多頭部自己注意を用いている。
各種ドメインからのデータセットの質的および定量的評価を行う。
論文 参考訳(メタデータ) (2022-04-30T21:35:38Z) - Adversarial Image Composition with Auxiliary Illumination [53.89445873577062]
本稿では,現実的な画像合成を実現するためのAIC-Netを提案する。
影の発生と前景の移動を両立させる新しい分岐生成機構を提案する。
歩行者と自動車のコンポジションタスクに関する実験により,提案したAIC-Netが優れたコンポジション性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-17T12:58:16Z) - Object-Centric Image Generation with Factored Depths, Locations, and
Appearances [30.541425619507184]
本稿では,画像の生成モデルについて,それらが示すオブジェクトの集合に対して明確な理由付けを行う。
私たちのモデルは、オブジェクトを互いに、そして背景から分離する構造化潜在表現を学びます。
オブジェクトマスクや深度情報を必要とせずに、純粋に教師なしの方法で画像からトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-01T18:00:11Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。