論文の概要: StyleStegan: Leak-free Style Transfer Based on Feature Steganography
- arxiv url: http://arxiv.org/abs/2307.00225v1
- Date: Sat, 1 Jul 2023 05:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 17:22:56.474538
- Title: StyleStegan: Leak-free Style Transfer Based on Feature Steganography
- Title(参考訳): StyleStegan:特徴ステレオグラフィに基づく漏れのないスタイル転送
- Authors: Xiujian Liang, Bingshan Liu, Qichao Ying, Zhenxing Qian and Xinpeng
Zhang
- Abstract要約: 既存のスタイル転送方式は 重大なコンテンツ漏洩に悩まされています
特徴ステガノグラフィーに基づくリークフリーなスタイル転送手法を提案する。
その結果、StyleSteganは、シリアルおよび可逆的なスタイル転送タスクにおいて、コンテンツのリーク問題を緩和することに成功した。
- 参考スコア(独自算出の注目度): 19.153040728118285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In modern social networks, existing style transfer methods suffer from a
serious content leakage issue, which hampers the ability to achieve serial and
reversible stylization, thereby hindering the further propagation of stylized
images in social networks. To address this problem, we propose a leak-free
style transfer method based on feature steganography. Our method consists of
two main components: a style transfer method that accomplishes artistic
stylization on the original image and an image steganography method that embeds
content feature secrets on the stylized image. The main contributions of our
work are as follows: 1) We identify and explain the phenomenon of content
leakage and its underlying causes, which arise from content inconsistencies
between the original image and its subsequent stylized image. 2) We design a
neural flow model for achieving loss-free and biased-free style transfer. 3) We
introduce steganography to hide content feature information on the stylized
image and control the subsequent usage rights. 4) We conduct comprehensive
experimental validation using publicly available datasets MS-COCO and Wikiart.
The results demonstrate that StyleStegan successfully mitigates the content
leakage issue in serial and reversible style transfer tasks. The SSIM
performance metrics for these tasks are 14.98% and 7.28% higher, respectively,
compared to a suboptimal baseline model.
- Abstract(参考訳): 現代のソーシャルネットワークでは、既存のスタイル転送手法は深刻なコンテンツリーク問題に悩まされており、連続的で可逆的なスタイリゼーションを実現する能力を損なうため、ソーシャルネットワークにおけるスタイリゼーションされたイメージのさらなる伝播を妨げている。
この問題に対処するために,特徴ステガノグラフィに基づくリークフリースタイル転送手法を提案する。
本手法は,オリジナル画像の芸術的スタイライゼーションを実現するスタイル転送方式と,スタイライゼーション画像にコンテンツの特徴秘密を埋め込む画像ステガノグラフィ方式の2つの主成分からなる。
私たちの仕事の主な貢献は次のとおりです。
1) オリジナル画像とそれに続くスタイリッシュ画像とのコンテンツの不一致から生じるコンテンツリークとその原因を同定し,その原因を説明する。
2) 損失のない, バイアスのないスタイル転送を実現するニューラルフローモデルを設計する。
3)スタイリッシュ画像のコンテンツ特徴情報を隠蔽し,その後の使用権を制御するために,ステガノグラフィを導入する。
4) 公開データセットMS-COCOとWikiartを用いて総合的な実験検証を行う。
その結果、StyleSteganは、シリアルおよび可逆的なスタイル転送タスクにおけるコンテンツ漏洩問題を軽減した。
これらのタスクのSSIMパフォーマンス指標はそれぞれ、最適以下のベースラインモデルと比較して14.98%と7.28%高い。
関連論文リスト
- FAGStyle: Feature Augmentation on Geodesic Surface for Zero-shot Text-guided Diffusion Image Style Transfer [2.3293561091456283]
イメージスタイル転送の目標は、オリジナルのコンテンツを維持しながら、スタイル参照によってガイドされたイメージをレンダリングすることである。
ゼロショットテキスト誘導拡散画像スタイル転送方式であるFAGStyleを紹介する。
提案手法は,スライディングウィンドウクロップを組み込むことにより,パッチ間の情報インタラクションを向上させる。
論文 参考訳(メタデータ) (2024-08-20T04:20:11Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - InstantStyle-Plus: Style Transfer with Content-Preserving in Text-to-Image Generation [4.1177497612346]
スタイル転送(Style Transfer)は、視覚的なスタイルを取り入れながら、オリジナルの本質を維持するイメージを作成するために設計された革新的なプロセスである。
InstantStyle-Plusは、ターゲットスタイルをシームレスに統合しながら、オリジナルコンテンツの整合性を優先するアプローチである。
論文 参考訳(メタデータ) (2024-06-30T18:05:33Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - ArtFlow: Unbiased Image Style Transfer via Reversible Neural Flows [101.16791104543492]
ArtFlowは、ユニバーサルスタイルの転送中にコンテンツ漏れを防ぐために提案されます。
前方と後方の両方の推論をサポートし、プロジェクション-トランスファー-リバージョンスキームで動作する。
コンテンツリークを回避しつつ、最先端スタイルの転送手法に匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-31T07:59:02Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。