論文の概要: SRAGAN: Saliency Regularized and Attended Generative Adversarial Network for Chinese Ink-wash Painting Generation
- arxiv url: http://arxiv.org/abs/2404.15743v2
- Date: Sun, 05 Jan 2025 07:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:03:23.596173
- Title: SRAGAN: Saliency Regularized and Attended Generative Adversarial Network for Chinese Ink-wash Painting Generation
- Title(参考訳): SRAGAN: 清墨画創出のための正則化・適応生成支援ネットワーク
- Authors: Xiang Gao, Yuqi Zhang,
- Abstract要約: 本論文は、実際の絵を中国の伝統的な墨画に翻訳する問題に対処する。
本稿では、画像コンテンツを正規化するために、不適切なI2Iフレームワークに塩分検出を組み込むことを提案する。
- 参考スコア(独自算出の注目度): 17.238908596339904
- License:
- Abstract: Recent style transfer problems are still largely dominated by Generative Adversarial Network (GAN) from the perspective of cross-domain image-to-image (I2I) translation, where the pivotal issue is to learn and transfer target-domain style patterns onto source-domain content images. This paper handles the problem of translating real pictures into traditional Chinese ink-wash paintings, i.e., Chinese ink-wash painting style transfer. Though a wide range of I2I models tackle this problem, a notable challenge is that the content details of the source image could be easily erased or corrupted due to the transfer of ink-wash style elements. To remedy this issue, we propose to incorporate saliency detection into the unpaired I2I framework to regularize image content, where the detected saliency map is utilized from two aspects: (\romannumeral1) we propose saliency IOU (SIOU) loss to explicitly regularize object content structure by enforcing saliency consistency before and after image stylization; (\romannumeral2) we propose saliency adaptive normalization (SANorm) which implicitly enhances object structure integrity of the generated paintings by dynamically injecting image saliency information into the generator to guide stylization process. Besides, we also propose saliency attended discriminator which harnesses image saliency information to focus generative adversarial attention onto the drawn objects, contributing to generating more vivid and delicate brush strokes and ink-wash textures. Extensive qualitative and quantitative experiments demonstrate superiority of our approach over related advanced image stylization methods in both GAN and diffusion model paradigms.
- Abstract(参考訳): 近年のスタイル転送問題は、ドメイン間画像変換(I2I)の観点からは、GAN(Generative Adversarial Network)が大半を占めており、そこでは、ターゲットドメインのスタイルパターンを学習し、ソースドメインのコンテンツイメージに転送することが重要な課題である。
本論文は、実際の絵を中国の伝統的な墨画、すなわち中国の墨画様式に翻訳する問題に対処する。
様々なI2Iモデルがこの問題に対処しているが、インクウォッシュスタイルの要素の転送により、ソース画像の内容の詳細を簡単に消去したり、破損させたりできる点が注目すべきである。
本稿では, 画像スタイライゼーションの前後にサリエンシ一貫性を強制することにより, 対象コンテンツ構造を明示的に正規化するためのサリエンシIOU(SIOU)損失と, 画像スタイライゼーションの過程を動的に注入することで生成した絵画のオブジェクト構造整合性を暗黙的に向上するサリエンシ適応正規化(SANorm)を提案する。
また、画像の塩分度情報を利用して、描画対象に生成的敵意を集中させることにより、より鮮明で繊細なブラシストロークやインク洗面テクスチャの生成に寄与する。
広汎な定性的および定量的実験は、GANと拡散モデルの両方のパラダイムにおいて、関連する高度な画像スタイリング手法よりも、我々のアプローチの方が優れていることを示す。
関連論文リスト
- Large-Scale Text-to-Image Model with Inpainting is a Zero-Shot Subject-Driven Image Generator [44.620847608977776]
ディプチッチ・プロンプティング(Diptych Prompting)は、被写体を正確にアライメントした塗装タスクとして再解釈する、新しいゼロショットアプローチである。
提案手法は主観的画像生成だけでなく, 主観的画像生成と主観的画像編集もサポートする。
論文 参考訳(メタデータ) (2024-11-23T06:17:43Z) - BrushNet: A Plug-and-Play Image Inpainting Model with Decomposed
Dual-Branch Diffusion [61.90969199199739]
BrushNetは、ピクセルレベルのマスク付きイメージ機能を事前訓練されたDMに埋め込むために設計された、新しいプラグアンドプレイデュアルブランチモデルである。
BrushNetは、画像品質、マスク領域保存、テキストコヒーレンスを含む7つの主要な指標で、既存のモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:59:31Z) - DLP-GAN: learning to draw modern Chinese landscape photos with
generative adversarial network [20.74857981451259]
中国の風景画は独特で芸術的な様式であり、その画法は色と現実的な物体表現の両方において非常に抽象的である。
従来は、近代の絵から古代の墨画への移行に焦点が当てられていたが、風景画を近代の絵に翻訳することにはほとんど関心が向けられていない。
論文 参考訳(メタデータ) (2024-03-06T04:46:03Z) - Decoupled Textual Embeddings for Customized Image Generation [62.98933630971543]
カスタマイズされたテキスト・ツー・イメージ生成は、ユーザが指定した概念を少数の画像で学習することを目的としている。
既存の方法は、通常、過剰な問題に悩まされ、学習された概念と対象と無関係な情報を絡み合わせる。
フレキシブルなテキスト・ツー・イメージ生成のための不整合概念の埋め込みを学習する新しいアプローチであるDETEXを提案する。
論文 参考訳(メタデータ) (2023-12-19T03:32:10Z) - DreamInpainter: Text-Guided Subject-Driven Image Inpainting with
Diffusion Models [37.133727797607676]
本研究は,テキストガイドによる主題駆動画像の描画について紹介する。
我々は、被写体再現の精度を確保するために、密集した被写体特徴を計算する。
我々は、余分な被写体の詳細を排除するために識別トークン選択モジュールを使用します。
論文 参考訳(メタデータ) (2023-12-05T22:23:19Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - StyleStegan: Leak-free Style Transfer Based on Feature Steganography [19.153040728118285]
既存のスタイル転送方式は 重大なコンテンツ漏洩に悩まされています
特徴ステガノグラフィーに基づくリークフリーなスタイル転送手法を提案する。
その結果、StyleSteganは、シリアルおよび可逆的なスタイル転送タスクにおいて、コンテンツのリーク問題を緩和することに成功した。
論文 参考訳(メタデータ) (2023-07-01T05:00:19Z) - Zero-shot Image-to-Image Translation [57.46189236379433]
手動のプロンプトを使わずに元の画像を保存できる画像から画像への変換法であるpix2pix-zeroを提案する。
本稿では,拡散過程全体を通して入力画像の相互注意マップを維持することを目的とした,相互注意誘導を提案する。
本手法では,これらの編集のための追加のトレーニングを必要とせず,既存のテキスト・画像拡散モデルを直接使用することができる。
論文 参考訳(メタデータ) (2023-02-06T18:59:51Z) - Multi-Modality Image Inpainting using Generative Adversarial Networks [0.0]
本稿では,画像インパインティングタスクとマルチモーダルな画像から画像への変換を併用する問題に対処するモデルを提案する。
モデルは、定性的かつ定量的な結果とともに、夜間のイメージ翻訳と塗装の組み合わせで評価される。
論文 参考訳(メタデータ) (2022-06-18T14:06:14Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。