論文の概要: InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer
- arxiv url: http://arxiv.org/abs/2307.16227v1
- Date: Sun, 30 Jul 2023 13:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 16:46:52.521805
- Title: InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer
- Title(参考訳): InfoStyler: アートスタイル転送のためのアンタングル情報ブロック
- Authors: Yueming Lyu, Yue Jiang, Bo Peng, Jing Dong
- Abstract要約: アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
- 参考スコア(独自算出の注目度): 22.29381866838179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic style transfer aims to transfer the style of an artwork to a
photograph while maintaining its original overall content. Many prior works
focus on designing various transfer modules to transfer the style statistics to
the content image. Although effective, ignoring the clear disentanglement of
the content features and the style features from the first beginning, they have
difficulty in balancing between content preservation and style transferring. To
tackle this problem, we propose a novel information disentanglement method,
named InfoStyler, to capture the minimal sufficient information for both
content and style representations from the pre-trained encoding network.
InfoStyler formulates the disentanglement representation learning as an
information compression problem by eliminating style statistics from the
content image and removing the content structure from the style image. Besides,
to further facilitate disentanglement learning, a cross-domain Information
Bottleneck (IB) learning strategy is proposed by reconstructing the content and
style domains. Extensive experiments demonstrate that our InfoStyler can
synthesize high-quality stylized images while balancing content structure
preservation and style pattern richness.
- Abstract(参考訳): アートスタイルの転送は、アートワークのスタイルをオリジナルの全体コンテンツを維持しながら写真に転送することを目的としている。
多くの先行研究は、スタイル統計をコンテンツイメージに転送する様々な転送モジュールの設計に重点を置いていた。
コンテンツの特徴とスタイルの特徴の明確な乱れを最初から無視することは有効であるが、コンテンツ保存とスタイル転送のバランスをとることは困難である。
そこで本研究では,事前学習した符号化ネットワークから,コンテンツとスタイル表現の双方について,最小限の情報を取得するために,InfoStylerという新しい情報分散手法を提案する。
infostylerは、コンテンツ画像からスタイル統計を取り除き、スタイル画像からコンテンツ構造を取り除いて、情報圧縮問題として不等角表現学習を定式化する。
さらに, 分節学習をさらに促進するために, 内容領域とスタイル領域を再構築し, クロスドメイン情報ボトルネック(ib)学習戦略を提案する。
我々のInfoStylerは、コンテンツ構造保存とスタイルパターンの豊かさのバランスを保ちながら高品質なスタイリング画像を合成できることを示した。
関連論文リスト
- InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - Few-shot Image Generation via Style Adaptation and Content Preservation [60.08988307934977]
我々は、GAN転送に画像翻訳モジュールを導入し、モジュールはジェネレータにスタイルとコンテンツを分離するように教える。
我々の手法はショット設定がほとんどない状態で、常に最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-11-30T01:16:53Z) - TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer [22.16475032434281]
芸術的スタイルの転送は、対象の芸術的スタイルで与えられた写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法では、グローバルな統計や局所的なパッチに基づいてスタイルを学習し、実際の描画過程の注意深い考慮を欠いている。
本稿では,コンテンツとスタイルの特徴のグローバルな統計を整合させて,まずグローバルなスタイル基盤を構築する2段階統計認識変換(TSSAT)モジュールを提案する。
コンテンツとスタイルの表現をさらに強化するために、注意に基づくコンテンツ損失とパッチベースのスタイル損失という2つの新しい損失を導入する。
論文 参考訳(メタデータ) (2023-09-12T07:02:13Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - StyleStegan: Leak-free Style Transfer Based on Feature Steganography [19.153040728118285]
既存のスタイル転送方式は 重大なコンテンツ漏洩に悩まされています
特徴ステガノグラフィーに基づくリークフリーなスタイル転送手法を提案する。
その結果、StyleSteganは、シリアルおよび可逆的なスタイル転送タスクにおいて、コンテンツのリーク問題を緩和することに成功した。
論文 参考訳(メタデータ) (2023-07-01T05:00:19Z) - Edge Enhanced Image Style Transfer via Transformers [6.666912981102909]
任意のイメージスタイルの転送が ますます注目を集めています
コンテンツの詳細とスタイル機能のトレードオフを同時に維持することは困難です。
画像スタイルの転送とエッジロスのための新しい変換器ベースのSTTを提案する。
論文 参考訳(メタデータ) (2023-01-02T10:39:31Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - A Content Transformation Block For Image Style Transfer [16.25958537802466]
本稿では,コンテンツイメージのコンテンツとスタイルを意識したスタイル化に焦点を当てた。
写真やスタイルのサンプルに現れる類似のコンテンツを利用して、スタイルがコンテンツの詳細をどう変えるかを学ぶ。
本モデルのロバスト性と速度は,リアルタイムかつ高精細なビデオスタイリングを可能にする。
論文 参考訳(メタデータ) (2020-03-18T18:00:23Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。