論文の概要: Making Images Real Again: A Comprehensive Survey on Deep Image
Composition
- arxiv url: http://arxiv.org/abs/2106.14490v4
- Date: Sat, 2 Mar 2024 08:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 21:28:59.925740
- Title: Making Images Real Again: A Comprehensive Survey on Deep Image
Composition
- Title(参考訳): 画像の作り直し:ディープ・イメージ・コンポジションに関する総合的な調査
- Authors: Li Niu, Wenyan Cong, Liu Liu, Yan Hong, Bo Zhang, Jing Liang, Liqing
Zhang
- Abstract要約: 画像合成タスクは複数のサブタスクに分割でき、各サブタスクは1つ以上の課題を目標とすることができる。
本稿では,サブタスクの包括的調査と画像合成のブレンディングを行う。
それぞれについて、既存のメソッド、利用可能なデータセット、一般的な評価指標を要約する。
- 参考スコア(独自算出の注目度): 35.80346383668234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a common image editing operation, image composition aims to combine the
foreground from one image and another background image, resulting in a
composite image. However, there are many issues that could make the composite
images unrealistic. These issues can be summarized as the inconsistency between
foreground and background, which includes appearance inconsistency (e.g.,
incompatible illumination), geometry inconsistency (e.g., unreasonable size),
and semantic inconsistency (e.g., mismatched semantic context). Image
composition task could be decomposed into multiple sub-tasks, in which each
sub-task targets at one or more issues. Specifically, object placement aims to
find reasonable scale, location, and shape for the foreground. Image blending
aims to address the unnatural boundary between foreground and background. Image
harmonization aims to adjust the illumination statistics of foreground. Shadow
generation aims to generate plausible shadow for the foreground. These
sub-tasks can be executed sequentially or parallelly to acquire realistic
composite images. To the best of our knowledge, there is no previous survey on
image composition. In this paper, we conduct comprehensive survey over the
sub-tasks and combinatorial task of image composition. For each one, we
summarize the existing methods, available datasets, and common evaluation
metrics. Datasets and codes for image composition are summarized at
https://github.com/bcmi/Awesome-Image-Composition. We have also contributed the
first image composition toolbox: libcom https://github.com/bcmi/libcom, which
assembles 10+ image composition related functions (e.g., image blending, image
harmonization, object placement, shadow generation, generative composition).
The ultimate goal of this toolbox is solving all the problems related to image
composition with simple `import libcom'.
- Abstract(参考訳): 一般的な画像編集操作として、画像合成は、ある画像と別の背景画像から前景を合成することを目的としている。
しかし、合成画像が非現実的になるような問題は数多くある。
これらの問題は、前景と背景の矛盾(例えば、不整合照明)、幾何学的不整合(例えば、不合理なサイズ)、意味的不一貫性(例えば、ミスマッチされた意味的文脈)を含む。
画像合成タスクは複数のサブタスクに分解され、各サブタスクが1つ以上の課題を目標とする。
特に、オブジェクト配置は、前景の合理的なスケール、位置、形状を見つけることを目的としている。
画像ブレンディングは、前景と背景の間の不自然な境界に対処することを目的としている。
イメージ調和は前景の照明統計を調整することを目的としている。
シャドウ生成は、フォアグラウンドで可能なシャドウを生成することを目的としている。
これらのサブタスクは順次または並列に実行でき、リアルな合成画像を取得する。
我々の知る限りでは、画像合成に関する以前の調査はない。
本稿では,画像合成のサブタスクと組合せタスクについて包括的調査を行う。
それぞれについて、既存のメソッド、利用可能なデータセット、一般的な評価メトリクスをまとめます。
画像合成のためのデータセットとコードはhttps://github.com/bcmi/Awesome-Image-Compositionで要約されている。
libcom https://github.com/bcmi/libcom は10以上の画像合成関連関数(画像ブレンディング、画像調和、オブジェクト配置、影生成、生成合成など)を組み立てるツールボックスである。
このツールボックスの最終的な目標は、単純な‘import libcom’で画像合成に関連するすべての問題を解決することだ。
関連論文リスト
- DepGAN: Leveraging Depth Maps for Handling Occlusions and Transparency in Image Composition [7.693732944239458]
DepGANは、デプスマップとアルファチャンネルを利用して、不正確なオクルージョンを正すジェネレーティブ・アドバイサル・ネットワークである。
我々のネットワークの中心にはDepth Aware Lossと呼ばれる新しいロス関数があり、ピクセルのワイド深さ差を定量化している。
我々は不透明データを利用してネットワークの学習プロセスを強化し、透明で半透明なオブジェクトを含む構成を効果的に管理する。
論文 参考訳(メタデータ) (2024-07-16T16:18:40Z) - DreamCom: Finetuning Text-guided Inpainting Model for Image Composition [24.411003826961686]
本研究では、画像合成を、特定の対象に対してカスタマイズされた画像インペイントとして扱うことで、DreamComを提案する。
具体的には、同じオブジェクトを含むいくつかの参照画像に基づいて、事前学習したテキスト誘導画像の塗装モデルを精査する。
実際には、挿入された物体は背景の影響を受けやすいため、陰性な背景干渉を避けるためにマスキングされた注意機構を提案する。
論文 参考訳(メタデータ) (2023-09-27T09:23:50Z) - DESOBAv2: Towards Large-scale Real-world Dataset for Shadow Generation [19.376935979734714]
本研究では,合成画像をよりリアルにするために,挿入された前景オブジェクトに対する可塑性影の生成に焦点をあてる。
既存の小規模なデータセットであるDESOBAを補完するために、DESOBAv2と呼ばれる大規模なデータセットを作成します。
論文 参考訳(メタデータ) (2023-08-19T10:21:23Z) - Blind Image Decomposition [53.760745569495825]
本稿では,Blind Image Decomposition (BID)について述べる。
雨のような重畳された画像を異なるソースコンポーネントに分解する方法は、現実世界の視覚システムにとって重要なステップだ。
本稿では,Blind Image Decomposition Network (BIDeN) を提案する。
論文 参考訳(メタデータ) (2021-08-25T17:37:19Z) - SSH: A Self-Supervised Framework for Image Harmonization [97.16345684998788]
我々は、編集せずに「自由」な自然画像だけで訓練できる新しい自己改善調和フレームワーク(SSH)を提案する。
提案したSSHは,基準指標,視覚的品質,主観的ユーザスタディにおいて,従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-15T19:51:33Z) - Shadow Generation for Composite Image in Real-world Scenes [23.532079444113528]
本稿では,シャドウマスク予測段階とシャドウマスク充填段階からなる新しいシャドウ生成ネットワークsgrnetを提案する。
シャドウマスク予測段階では、フォアグラウンドと背景情報が徹底的に相互作用してフォアグラウンドシャドウマスクを生成する。
シャドウ充填段階では、シャドウパラメータがシャドウ領域を満たすように予測される。
論文 参考訳(メタデータ) (2021-04-21T03:30:02Z) - Deep Image Compositing [0.0]
画像編集では、最も一般的なタスクは、一方の画像から他方の画像にオブジェクトを貼り付け、背景オブジェクトで前景オブジェクトの表示を調整することです。
そのためには、GANS(Generative Adversarial Networks)を使用しています。
GANSは、画像の前景と背景部分の色ヒストグラムをデコードすることができ、また、前景オブジェクトと背景をブレンドすることを学ぶことができる。
論文 参考訳(メタデータ) (2021-03-29T09:23:37Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Adversarial Image Composition with Auxiliary Illumination [53.89445873577062]
本稿では,現実的な画像合成を実現するためのAIC-Netを提案する。
影の発生と前景の移動を両立させる新しい分岐生成機構を提案する。
歩行者と自動車のコンポジションタスクに関する実験により,提案したAIC-Netが優れたコンポジション性能を実現することを示す。
論文 参考訳(メタデータ) (2020-09-17T12:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。