論文の概要: WISE: Whitebox Image Stylization by Example-based Learning
- arxiv url: http://arxiv.org/abs/2207.14606v1
- Date: Fri, 29 Jul 2022 10:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 13:20:03.793138
- Title: WISE: Whitebox Image Stylization by Example-based Learning
- Title(参考訳): WISE:例ベースの学習によるホワイトボックス画像スティル化
- Authors: Winfried L\"otzsch, Max Reimann, Martin B\"ussemeyer, Amir Semmo,
J\"urgen D\"ollner, Matthias Trapp
- Abstract要約: 画像に基づく芸術的レンダリングは、アルゴリズムによる画像フィルタリングを用いて様々な表現スタイルを合成することができる。
本稿では,多種多様なスタイリング手法を扱える実例に基づく画像処理システムを提案する。
本手法は,画像から画像への変換のために,スタイル・トランスファー・フレームワークで最適化したり,生成的・逆条件で学習することができる。
- 参考スコア(独自算出の注目度): 0.22835610890984162
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Image-based artistic rendering can synthesize a variety of expressive styles
using algorithmic image filtering. In contrast to deep learning-based methods,
these heuristics-based filtering techniques can operate on high-resolution
images, are interpretable, and can be parameterized according to various design
aspects. However, adapting or extending these techniques to produce new styles
is often a tedious and error-prone task that requires expert knowledge. We
propose a new paradigm to alleviate this problem: implementing algorithmic
image filtering techniques as differentiable operations that can learn
parametrizations aligned to certain reference styles. To this end, we present
WISE, an example-based image-processing system that can handle a multitude of
stylization techniques, such as watercolor, oil or cartoon stylization, within
a common framework. By training parameter prediction networks for global and
local filter parameterizations, we can simultaneously adapt effects to
reference styles and image content, e.g., to enhance facial features. Our
method can be optimized in a style-transfer framework or learned in a
generative-adversarial setting for image-to-image translation. We demonstrate
that jointly training an XDoG filter and a CNN for postprocessing can achieve
comparable results to a state-of-the-art GAN-based method.
- Abstract(参考訳): 画像に基づく芸術的レンダリングは、アルゴリズムによる画像フィルタリングを用いて様々な表現スタイルを合成することができる。
深層学習法とは対照的に、これらのヒューリスティックスに基づくフィルタリング技術は高解像度の画像を操作でき、解釈可能であり、様々な設計面に応じてパラメータ化できる。
しかし、これらのテクニックを新しいスタイルに適応または拡張することは、しばしば、専門家の知識を必要とする退屈でエラーやすいタスクである。
特定の参照スタイルに沿ったパラメトリゼーションを学習できる微分可能操作として、アルゴリズムによるイメージフィルタリング技術を実装する。
そこで本稿では,水彩画,油彩画,カートゥーンスタイライゼーションなどの多種多様なスタイライゼーションを共通の枠組みで処理可能な,サンプルベースの画像処理システムであるワイズを提案する。
グローバルおよびローカルなフィルタパラメータ化のためのパラメータ予測ネットワークをトレーニングすることにより、参照スタイルや画像の内容に同時に適応し、顔の特徴を高めることができる。
本手法は、スタイル変換フレームワークで最適化するか、画像から画像への変換のための生成的逆設定で学習することができる。
ポストプロセッシングのためのXDoGフィルタとCNNを共同でトレーニングすることで,最先端のGAN方式に匹敵する結果が得られることを示す。
関連論文リスト
- PixelShuffler: A Simple Image Translation Through Pixel Rearrangement [0.0]
スタイル転送は画像から画像への変換の応用として広く研究されており、ある画像の内容を他の画像のスタイルと組み合わせた画像の合成が目的である。
既存の最先端の手法は、しばしば高品質なスタイル転送を実現するために拡散モデルや言語モデルを含む複雑なニューラルネットワークに依存している。
本稿では,画像から画像への変換問題に対処する新たなピクセルシャッフル手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T22:08:41Z) - Customizing Text-to-Image Models with a Single Image Pair [47.49970731632113]
芸術再解釈(Art repretation)は、参照された作品のバリエーションを作成し、異なる芸術様式を示すペアアートを作るプラクティスである。
Pair Customizationは1つの画像対からスタイリスティックな違いを学習し、取得したスタイルを生成プロセスに適用する新しいカスタマイズ手法である。
論文 参考訳(メタデータ) (2024-05-02T17:59:52Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Style Intervention: How to Achieve Spatial Disentanglement with
Style-based Generators? [100.60938767993088]
任意の入力画像に適応し、フレキシブルな目的の下で自然な翻訳効果をレンダリングできる軽量な最適化アルゴリズムを提案する。
フォトリアリズムと一貫性の両方を必要とする高解像度画像の顔属性編集において,提案するフレームワークの性能を検証する。
論文 参考訳(メタデータ) (2020-11-19T07:37:31Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z) - Image Stylization: From Predefined to Personalized [14.32038355309114]
本稿では,さまざまな事前定義されたフィルタブロックを用いて,新しい画像スタイリングの対話的設計を行うフレームワークを提案する。
私たちの結果には、インタラクティブツールを使って設計された10以上のスタイル、手続き的に作成されたスタイルセット、BLADEアプローチでトレーニングされた新しいフィルタが含まれています。
論文 参考訳(メタデータ) (2020-02-22T06:48:28Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。