論文の概要: Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate
- arxiv url: http://arxiv.org/abs/2304.09728v2
- Date: Thu, 20 Apr 2023 04:17:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 15:44:06.963869
- Title: Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate
- Title(参考訳): any-to-anyスタイルトランスファー:picassoとda vinciのコラボレーションを実現する
- Authors: Songhua Liu, Jingwen Ye, Xinchao Wang
- Abstract要約: スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
- 参考スコア(独自算出の注目度): 58.83278629019384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer aims to render the style of a given image for style reference
to another given image for content reference, and has been widely adopted in
artistic generation and image editing. Existing approaches either apply the
holistic style of the style image in a global manner, or migrate local colors
and textures of the style image to the content counterparts in a pre-defined
way. In either case, only one result can be generated for a specific pair of
content and style images, which therefore lacks flexibility and is hard to
satisfy different users with different preferences. We propose here a novel
strategy termed Any-to-Any Style Transfer to address this drawback, which
enables users to interactively select styles of regions in the style image and
apply them to the prescribed content regions. In this way, personalizable style
transfer is achieved through human-computer interaction. At the heart of our
approach lies in (1) a region segmentation module based on Segment Anything,
which supports region selection with only some clicks or drawing on images and
thus takes user inputs conveniently and flexibly; (2) and an attention fusion
module, which converts inputs from users to controlling signals for the style
transfer model. Experiments demonstrate the effectiveness for personalizable
style transfer. Notably, our approach performs in a plug-and-play manner
portable to any style transfer method and enhance the controllablity. Our code
is available \href{https://github.com/Huage001/Transfer-Any-Style}{here}.
- Abstract(参考訳): スタイル転送は、ある画像のスタイルを他の画像のスタイル参照にレンダリングすることを目的としており、芸術的生成や画像編集において広く採用されている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルに適用するか、あるいはスタイルイメージのローカルカラーやテクスチャを、事前に定義された方法でコンテントに移行している。
いずれの場合も、特定のコンテンツとスタイルイメージに対して1つの結果しか生成できないため、柔軟性がなく、異なる好みのユーザを満足させるのが困難である。
そこで本稿では,この欠点に対処するために,任意のスタイル転送と呼ばれる新しい戦略を提案する。
このように、パーソナライズ可能なスタイル転送は人間とコンピュータのインタラクションによって実現される。
提案手法の核心となるのは,(1) 画像のクリックや描画のみによる領域選択を支援するセグメンテーションモジュール,(2) ユーザからの入力をスタイル転送モデルの信号に変換するアテンション融合モジュールである。
個人化可能なスタイル転送の有効性を示す実験。
特に,任意のスタイル転送方式に移植可能なプラグアンドプレイ方式で動作し,制御能力を向上させる。
私たちのコードは href{https://github.com/Huage001/Transfer-Any-Style}{here} で利用可能です。
関連論文リスト
- FAGStyle: Feature Augmentation on Geodesic Surface for Zero-shot Text-guided Diffusion Image Style Transfer [2.3293561091456283]
イメージスタイル転送の目標は、オリジナルのコンテンツを維持しながら、スタイル参照によってガイドされたイメージをレンダリングすることである。
ゼロショットテキスト誘導拡散画像スタイル転送方式であるFAGStyleを紹介する。
提案手法は,スライディングウィンドウクロップを組み込むことにより,パッチ間の情報インタラクションを向上させる。
論文 参考訳(メタデータ) (2024-08-20T04:20:11Z) - LEAST: "Local" text-conditioned image style transfer [2.47996065798589]
テキスト条件付きスタイル転送により、ユーザーはテキスト記述を通じて、希望する芸術的スタイルを伝達できる。
我々は,テキスト条件付き画像編集とスタイル転送技術について,正確な「ローカル」スタイル転送のためのユーザプロンプトのきめ細かい理解に基づいて評価した。
論文 参考訳(メタデータ) (2024-05-25T19:06:17Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - CAMS: Color-Aware Multi-Style Transfer [46.550390398057985]
スタイル転送は、ソースイメージ("content"イメージ)の外観を操作して、ターゲットの"style"イメージの類似したテクスチャと色を共有することを目的としている。
スタイルの転送を支援するために一般的に用いられるアプローチは、グラム行列最適化に基づいている。
スタイルと生成した画像のスタイルと色との相関を保ちながら、美的満足な結果を生成する色認識多形転写法を提案する。
論文 参考訳(メタデータ) (2021-06-26T01:15:09Z) - Manifold Alignment for Semantically Aligned Style Transfer [61.1274057338588]
我々は,同じ意味領域からの画像特徴が多様体を形成し,複数の意味領域を持つ画像が多次元分布に従うことを仮定する。
この仮定に基づき、スタイル伝達問題は2つの多次元分布の整列として定式化される。
提案したフレームワークは、出力とスタイルイメージの間の意味的に類似した領域を、類似したスタイルパターンを共有することができる。
論文 参考訳(メタデータ) (2020-05-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。