論文の概要: Sketch-Guided Scenery Image Outpainting
- arxiv url: http://arxiv.org/abs/2006.09788v2
- Date: Tue, 26 Jan 2021 12:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:21:31.043345
- Title: Sketch-Guided Scenery Image Outpainting
- Title(参考訳): スケッチガイド付き風景画像のアウトペインティング
- Authors: Yaxiong Wang, Yunchao Wei, Xueming Qian, Li Zhu, Yi Yang
- Abstract要約: 本稿では,スケッチ誘導露光を行うエンコーダデコーダに基づくネットワークを提案する。
全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に, 合成した部分からスケッチを逆向きに生成し, 接地した部分との整合性を奨励する。
- 参考スコア(独自算出の注目度): 83.6612152173028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The outpainting results produced by existing approaches are often too random
to meet users' requirement. In this work, we take the image outpainting one
step forward by allowing users to harvest personal custom outpainting results
using sketches as the guidance. To this end, we propose an encoder-decoder
based network to conduct sketch-guided outpainting, where two alignment modules
are adopted to impose the generated content to be realistic and consistent with
the provided sketches. First, we apply a holistic alignment module to make the
synthesized part be similar to the real one from the global view. Second, we
reversely produce the sketches from the synthesized part and encourage them be
consistent with the ground-truth ones using a sketch alignment module. In this
way, the learned generator will be imposed to pay more attention to fine
details and be sensitive to the guiding sketches. To our knowledge, this work
is the first attempt to explore the challenging yet meaningful conditional
scenery image outpainting. We conduct extensive experiments on two collected
benchmarks to qualitatively and quantitatively validate the effectiveness of
our approach compared with the other state-of-the-art generative models.
- Abstract(参考訳): 既存のアプローチが生み出した影響は、しばしばユーザーの要求を満たすにはランダムすぎる。
本研究は,スケッチを手引きとして,利用者が個人用のカスタムな描画結果を収集できるようにすることにより,画像の描画を一歩進めるものである。
そこで本研究では,2つのアライメントモジュールを併用して,生成したコンテンツをリアルかつ整合的に配置する,スケッチ誘導露光を行うエンコーダデコーダベースのネットワークを提案する。
まず、全体的アライメントモジュールを適用して、合成された部分をグローバルビューの実際のものと類似させる。
第2に,合成した部分からスケッチを逆向きに生成し,スケッチアライメントモジュールを用いて地上のスケッチと整合することを奨励する。
このようにして、学習したジェネレータは詳細な詳細に注意を払い、ガイドのスケッチに敏感になるように強制される。
私たちの知る限りでは、この研究は、挑戦的で有意義な条件付き風景イメージを塗り替える最初の試みです。
本手法の有効性を定性的かつ定量的に検証するために,2つのベンチマークを用いた広範囲な実験を行った。
関連論文リスト
- Sketch-guided Image Inpainting with Partial Discrete Diffusion Process [5.005162730122933]
スケッチ誘導インペイントのための新しい部分離散拡散法(PDDP)を提案する。
PDDPは画像のマスキング領域を破損させ、手描きスケッチで条件付けられたこれらのマスキング領域を再構築する。
提案するトランスモジュールは,2つの入力を受信する。マスク領域を含む画像はインペイントされ,クエリスケッチは逆拡散過程をモデル化する。
論文 参考訳(メタデータ) (2024-04-18T07:07:38Z) - Towards Interactive Image Inpainting via Sketch Refinement [13.34066589008464]
そこで本研究では,SketchRefinerと呼ばれる2段階画像のインペイント手法を提案する。
第1段階では,クロス相関損失関数を用いて,ユーザが提供するスケッチを堅牢に校正し,洗練する。
第2段階では,特徴空間の抽象的スケッチから情報的特徴を抽出し,着色過程を変調する。
論文 参考訳(メタデータ) (2023-06-01T07:15:54Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Unsupervised Scene Sketch to Photo Synthesis [40.044690369936184]
シーンスケッチからリアルな写真を合成する手法を提案する。
我々のフレームワークは、教師なしの方法で手軽に利用できる大規模写真データセットから学習する。
また、本フレームワークは、対応するスケッチのストロークを編集することで、写真合成の制御可能な操作を容易にすることを実証する。
論文 参考訳(メタデータ) (2022-09-06T22:25:06Z) - Self-Supervised Sketch-to-Image Synthesis [21.40315235087551]
本研究では,s2i合成タスクを自己教師あり学習方式で検討する。
まず,一般RGBのみのデータセットに対して,ラインスケッチを効率的に合成する非監視手法を提案する。
次に,自己教師付きオートエンコーダ(ae)を提示し,スケッチやrgb画像からコンテンツ/スタイルの特徴を分離し,スケッチやrgb画像と一致したスタイルを合成する。
論文 参考訳(メタデータ) (2020-12-16T22:14:06Z) - On Learning Semantic Representations for Million-Scale Free-Hand
Sketches [146.52892067335128]
百万のフリーハンドスケッチのための学習意味表現について研究する。
スケッチを表現するために,デュアルブランチCNNRNNネットワークアーキテクチャを提案する。
ハッシュ検索とゼロショット認識におけるスケッチ指向の意味表現の学習について検討する。
論文 参考訳(メタデータ) (2020-07-07T15:23:22Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。