論文の概要: Deep Feature Rotation for Multimodal Image Style Transfer
- arxiv url: http://arxiv.org/abs/2202.04426v1
- Date: Wed, 9 Feb 2022 12:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 19:16:45.476971
- Title: Deep Feature Rotation for Multimodal Image Style Transfer
- Title(参考訳): マルチモーダル画像スタイル転送のための深い特徴回転
- Authors: Son Truong Nguyen, Nguyen Quang Tuyen, Nguyen Hong Phuc
- Abstract要約: 本稿では,Deep Feature Rotation (DFR) と呼ばれる,様々な方法でスタイル特徴を表現するための簡易な手法を提案する。
提案手法は, 計算コストの負担を伴わずに, 中間機能埋め込みのための多種多様な拡張方法を示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, style transfer is a research area that attracts a lot of attention,
which transfers the style of an image onto a content target. Extensive research
on style transfer has aimed at speeding up processing or generating
high-quality stylized images. Most approaches only produce an output from a
content and style image pair, while a few others use complex architectures and
can only produce a certain number of outputs. In this paper, we propose a
simple method for representing style features in many ways called Deep Feature
Rotation (DFR), while not only producing diverse outputs but also still
achieving effective stylization compared to more complex methods. Our approach
is representative of the many ways of augmentation for intermediate feature
embedding without consuming too much computational expense. We also analyze our
method by visualizing output in different rotation weights. Our code is
available at https://github.com/sonnguyen129/deep-feature-rotation.
- Abstract(参考訳): 近年、画像のスタイルをコンテンツターゲットに転送するスタイル転送は、多くの注目を集める研究領域となっている。
スタイル転送に関する広範な研究は、処理のスピードアップや高品質なスタイリッシュ画像の生成を目的としている。
ほとんどのアプローチはコンテンツとスタイルのイメージペアからのみ出力を生成するが、他のいくつかのアプローチでは複雑なアーキテクチャを使用し、一定の数の出力しか生成できない。
本稿では,多種多様な出力を生成するだけでなく,より複雑な方法に比べて効果的なスタイライゼーションを実現しつつ,多彩な特徴回転(dfr)と呼ばれるスタイル特徴の表現方法を提案する。
計算コストを過大に消費することなく,中間的な機能埋め込みを補完する多くの方法の代表的手法である。
また, 異なる回転重みで出力を可視化することで解析を行う。
私たちのコードはhttps://github.com/sonnguyen129/deep-feature-rotationで利用可能です。
関連論文リスト
- D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - MoreStyle: Relax Low-frequency Constraint of Fourier-based Image Reconstruction in Generalizable Medical Image Segmentation [53.24011398381715]
MoreStyleと呼ばれるデータ拡張のためのPlug-and-Playモジュールを紹介します。
MoreStyleは、フーリエ空間の低周波制約を緩和することで、イメージスタイルを多様化する。
敵対的学習の助けを借りて、MoreStyleは潜在機能の中で最も複雑なスタイルの組み合わせを指差している。
論文 参考訳(メタデータ) (2024-03-18T11:38:47Z) - Multimodality-guided Image Style Transfer using Cross-modal GAN
Inversion [42.345533741985626]
そこで本研究では,テキストガイダンスに基づいて,より優れたスタイル転送を実現する新しい手法を提案する。
提案手法は複数のソースやモダリティからのスタイル入力を可能にし,マルチモーダル誘導画像スタイル転送(MMIST)を実現する。
具体的には,特定のスタイルに整合したスタイル表現を生成する,新しいクロスモーダルなGANインバージョン手法によりMMISTを実現する。
論文 参考訳(メタデータ) (2023-12-04T06:38:23Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。