論文の概要: Adversarial Open Domain Adaption Framework (AODA): Sketch-to-Photo
Synthesis
- arxiv url: http://arxiv.org/abs/2108.04351v1
- Date: Wed, 28 Jul 2021 18:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-15 11:32:15.638259
- Title: Adversarial Open Domain Adaption Framework (AODA): Sketch-to-Photo
Synthesis
- Title(参考訳): Adversarial Open Domain Adaption Framework (AODA): Sketch-to-Photo Synthesis
- Authors: Amey Thakur and Mega Satish
- Abstract要約: 手描きのスケッチからリアルな写真を生成する、教師なしのオープンドメインは、難しい。
本稿では、スケッチ・ツー・フォトとフォト・ツー・スケッチの両方を学習し、画像から欠落したフリーハンド図面を合成するアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to demonstrate the efficiency of the Adversarial Open Domain
Adaption framework for sketch-to-photo synthesis. The unsupervised open domain
adaption for generating realistic photos from a hand-drawn sketch is
challenging as there is no such sketch of that class for training data. The
absence of learning supervision and the huge domain gap between both the
freehand drawing and picture domains make it hard. We present an approach that
learns both sketch-to-photo and photo-to-sketch generation to synthesise the
missing freehand drawings from pictures. Due to the domain gap between
synthetic sketches and genuine ones, the generator trained on false drawings
may produce unsatisfactory results when dealing with drawings of lacking
classes. To address this problem, we offer a simple but effective open-domain
sampling and optimization method that tricks the generator into considering
false drawings as genuine. Our approach generalises the learnt sketch-to-photo
and photo-to-sketch mappings from in-domain input to open-domain categories. On
the Scribble and SketchyCOCO datasets, we compared our technique to the most
current competing methods. For many types of open-domain drawings, our model
outperforms impressive results in synthesising accurate colour, substance, and
retaining the structural layout.
- Abstract(参考訳): 本稿では,スケッチ・ツー・フォト合成のためのAdversarial Open Domain Adaptionフレームワークの有効性を示す。
手描きスケッチからリアルな写真を生成するための教師なしのオープンドメイン適応は、そのクラスのトレーニングデータにそのようなスケッチがないため、難しい。
学習監督の欠如とフリーハンドドローイングとピクチャドメインの間の大きなドメインギャップは、それを困難にします。
本稿では、スケッチ・ツー・フォトとフォト・ツー・スケッチの両方を学習し、画像から欠落したフリーハンド図面を合成するアプローチを提案する。
合成スケッチと本物のスケッチのドメインギャップのため、誤った描画を訓練したジェネレータは、クラス不足の図面を扱う場合、不十分な結果を生み出す可能性がある。
この問題に対処するために,提案手法は単純だが効果的なオープンドメインサンプリングと最適化手法を提供する。
本手法では,インドメイン入力からオープンドメインカテゴリへのスケッチ・ツー・フォト・スケッチマッピングを一般化する。
ScribbleとSketchyCOCOのデータセットでは、現在の競合する手法と比較した。
オープンドメインドローイングでは, 正確な色, 物質, 構造的レイアウトの維持など, 優れた結果が得られている。
関連論文リスト
- DiffSketching: Sketch Control Image Synthesis with Diffusion Models [10.172753521953386]
スケッチ・ツー・イメージ合成のためのディープラーニングモデルは、視覚的な詳細なしに歪んだ入力スケッチを克服する必要がある。
我々のモデルは、クロスドメイン制約を通じてスケッチにマッチし、画像合成をより正確に導くために分類器を使用する。
我々のモデルは、生成品質と人的評価の点でGANベースの手法に勝ることができ、大規模なスケッチ画像データセットに依存しない。
論文 参考訳(メタデータ) (2023-05-30T07:59:23Z) - Adapt and Align to Improve Zero-Shot Sketch-Based Image Retrieval [85.39613457282107]
スケッチに基づく画像検索のクロスドメイン性は困難である。
重要な課題に対処する効果的なAdaptとAlignのアプローチを提案する。
ゼロショットシナリオにおける画像テキスト基盤モデル(例えばCLIP)の最近の進歩に触発されて、学習したイメージの埋め込みを、より意味的なテキスト埋め込みと明確に整合させ、見知らぬクラスから見つからないクラスへの所望の知識伝達を実現する。
論文 参考訳(メタデータ) (2023-05-09T03:10:15Z) - Picture that Sketch: Photorealistic Image Generation from Abstract
Sketches [109.69076457732632]
この論文は、あなたや私のような訓練を受けていないアマチュアの抽象的で変形した普通のスケッチから、それをフォトリアリスティックなイメージに変えます。
まず、エッジマップのようなスケッチを指示するのではなく、抽象的なフリーハンドな人間のスケッチで作業することを目指しています。
そうすることで、スケッチから写真までのパイプラインを民主化し、スケッチがどれだけよいかに関わらず、スケッチを"写真化"します。
論文 参考訳(メタデータ) (2023-03-20T14:49:03Z) - Unsupervised Scene Sketch to Photo Synthesis [40.044690369936184]
シーンスケッチからリアルな写真を合成する手法を提案する。
我々のフレームワークは、教師なしの方法で手軽に利用できる大規模写真データセットから学習する。
また、本フレームワークは、対応するスケッチのストロークを編集することで、写真合成の制御可能な操作を容易にすることを実証する。
論文 参考訳(メタデータ) (2022-09-06T22:25:06Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Adversarial Open Domain Adaption for Sketch-to-Photo Synthesis [42.83974176146334]
自由自在なスケッチから写実的な写真をクラスラベルで合成することを目的とした,オープンドメインのスケッチから写真への翻訳について検討する。
トレーニング監督の欠如とフリーハンドスケッチとフォトドメイン間の大きな幾何学的歪みのため、これは困難である。
スケッチ・ツー・フォト・ツー・スケッチ生成を共同学習するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-12T17:58:46Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。