論文の概要: Deep Image Harmonization by Bridging the Reality Gap
- arxiv url: http://arxiv.org/abs/2103.17104v1
- Date: Wed, 31 Mar 2021 14:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:31:12.745022
- Title: Deep Image Harmonization by Bridging the Reality Gap
- Title(参考訳): 現実ギャップの橋渡しによる深部画像の調和
- Authors: Wenyan Cong, Junyan Cao, Li Niu, Jianfu Zhang, Xuesong Gao, Zhiwei
Tang, Liqing Zhang
- Abstract要約: 既存の実世界データセットを増強する人件費の少ない大規模レンダリング調和データセットRHHarmonyの構築を提案する。
実世界画像とレンダリング画像の両方を活用するため,クロスドメイン調和ネットワークcharmnetを提案する。
- 参考スコア(独自算出の注目度): 18.86655082192153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image harmonization has been significantly advanced with large-scale
harmonization dataset. However, the current way to build dataset is still
labor-intensive, which adversely affects the extendability of dataset. To
address this problem, we propose to construct a large-scale rendered
harmonization dataset RHHarmony with fewer human efforts to augment the
existing real-world dataset. To leverage both real-world images and rendered
images, we propose a cross-domain harmonization network CharmNet to bridge the
domain gap between two domains. Moreover, we also employ well-designed style
classifiers and losses to facilitate cross-domain knowledge transfer. Extensive
experiments demonstrate the potential of using rendered images for image
harmonization and the effectiveness of our proposed network. Our dataset and
code are available at
https://github.com/bcmi/Rendered_Image_Harmonization_Datasets.
- Abstract(参考訳): 画像調和は大規模調和データセットで大幅に進歩している。
しかし、現在のデータセット構築方法はまだ労働集約的であり、データセットの拡張性に悪影響を及ぼす。
この問題に対処するために,既存の実世界のデータセットを増強するための人的労力を減らした大規模調和データセットRHHarmonyを構築することを提案する。
実世界画像とレンダリング画像の両方を活用するため,2つのドメイン間のドメインギャップを橋渡しするクロスドメイン調和ネットワークcharmnetを提案する。
さらに、ドメイン間の知識伝達を容易にするために、よく設計されたスタイル分類器と損失を用いる。
画像調和のためのレンダリング画像の利用の可能性と,提案したネットワークの有効性を示す。
データセットとコードはhttps://github.com/bcmi/Rendered_Image_Harmonization_Datasets.comから入手可能です。
関連論文リスト
- Robust Disaster Assessment from Aerial Imagery Using Text-to-Image Synthetic Data [66.49494950674402]
航空画像からの損傷評価のタスクのための大規模合成監視を作成する際に,新たなテキスト・画像生成モデルを活用する。
低リソース領域から何千ものポストディスアスター画像を生成するために、効率的でスケーラブルなパイプラインを構築しています。
我々は,xBDおよびSKAI画像のクロスジオグラフィー領域転送設定におけるフレームワークの強度を,単一ソースとマルチソースの両方で検証する。
論文 参考訳(メタデータ) (2024-05-22T16:07:05Z) - Getting it Right: Improving Spatial Consistency in Text-to-Image Models [103.52640413616436]
現在のテキスト・トゥ・イメージ(T2I)モデルにおける重要な欠点の1つは、テキスト・プロンプトで指定された空間的関係を忠実に追従するイメージを一貫して生成できないことである。
4つの広く使用されている視覚データセットから600万の画像を再キャプチャすることで、空間的に焦点を絞った最初の大規模データセットであるSPRIGHTを作成します。
対象物を多数含む画像のトレーニングは,500枚の画像の微調整により,T2I-CompBenchの空間スコア0.2133の最先端結果を含む空間的整合性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-01T15:55:25Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Deep Image Harmonization with Learnable Augmentation [17.690945824240348]
小型データセットの照明多様性を向上し、調和性能を向上させるため、学習可能な拡張法を提案する。
SycoNetは、フォアグラウンドマスクとランダムベクトルで実画像を取り込んで、適切な色変換を学習し、この実画像のフォアグラウンドに適用して合成合成合成画像を生成する。
論文 参考訳(メタデータ) (2023-08-01T08:40:23Z) - Deep Image Harmonization with Globally Guided Feature Transformation and
Relation Distillation [20.302430505018]
我々は,グローバル情報を用いて前景の特徴変換を導くことで,大幅な改善が期待できることを示した。
また,前景と背景の関係を実画像から合成画像に転送し,変換エンコーダの特徴の中間的管理を行う。
論文 参考訳(メタデータ) (2023-08-01T07:53:25Z) - Painterly Image Harmonization in Dual Domains [13.067850524730698]
本稿では,2つのドメイン・ジェネレータと2つのドメイン・ディスクリミネータから構成される画期的調和ネットワークを提案する。
二重領域生成器は空間領域のAdaINモジュールと周波数領域のResFFTモジュールを用いて調和を行う。
二重領域判別器は、各パッチの空間的特徴と周波数特徴に基づいて不調和なパッチを識別し、逆向きにジェネレータの能力を高める。
論文 参考訳(メタデータ) (2022-12-17T11:00:34Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - A Generative Adversarial Framework for Optimizing Image Matting and
Harmonization Simultaneously [7.541357996797061]
本稿では,自己注意識別器をベースとしたマッチングネットワークと調和ネットワークを最適化するGAN(Generative Adversarial)フレームワークを提案する。
私たちのデータセットとデータセット生成パイプラインは、urlhttps://git.io/HaMaGANで確認できます。
論文 参考訳(メタデータ) (2021-08-13T06:48:14Z) - Using GANs to Augment Data for Cloud Image Segmentation Task [2.294014185517203]
本稿では,GAN(Generative Adversarial Networks)によるデータ生成の有効性を示す。
また,GAN生成した画像の2進2進写像を推定し,画像として有効に活用する方法を提案する。
論文 参考訳(メタデータ) (2021-06-06T09:01:43Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。