論文の概要: Rethinking Style Transfer: From Pixels to Parameterized Brushstrokes
- arxiv url: http://arxiv.org/abs/2103.17185v1
- Date: Wed, 31 Mar 2021 16:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 19:00:28.013346
- Title: Rethinking Style Transfer: From Pixels to Parameterized Brushstrokes
- Title(参考訳): スタイル変換再考:ピクセルからパラメータ化ブラシストロークへ
- Authors: Dmytro Kotovenko, Matthias Wright, Arthur Heimbrecht, Bj\"orn Ommer
- Abstract要約: ピクセルではなくパラメータ化されたブラシストロークを最適化することで,画像の様式化手法を提案する。
我々のアプローチは視覚的品質を大幅に改善し、スタイリングプロセスのさらなる制御を可能にします。
- 参考スコア(独自算出の注目度): 2.924868086534434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There have been many successful implementations of neural style transfer in
recent years. In most of these works, the stylization process is confined to
the pixel domain. However, we argue that this representation is unnatural
because paintings usually consist of brushstrokes rather than pixels. We
propose a method to stylize images by optimizing parameterized brushstrokes
instead of pixels and further introduce a simple differentiable rendering
mechanism. Our approach significantly improves visual quality and enables
additional control over the stylization process such as controlling the flow of
brushstrokes through user input. We provide qualitative and quantitative
evaluations that show the efficacy of the proposed parameterized
representation.
- Abstract(参考訳): 近年、ニューラル・スタイル・トランスファーの多くの実装が成功している。
これらの作品の多くは、スタイリングプロセスはピクセル領域に限定されている。
しかし、絵は通常ピクセルではなくブラシストロークで構成されているため、この表現は不自然であると主張する。
本稿では,画素の代わりにパラメータ化ブラシストロークを最適化し,画像のスタイリングを行う手法を提案する。
本手法は視覚品質を大幅に改善し,ユーザ入力によるブラシストロークのフロー制御など,スタイライゼーションプロセスのさらなる制御を可能にする。
提案するパラメータ化表現の有効性を示す定性的・定量的評価を行う。
関連論文リスト
- Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Segmentation-Based Parametric Painting [22.967620358813214]
本研究では,人間のような質とスタイルのバリエーションを持つ大規模で高忠実な絵画の作成を容易にする,新しい画像から絵画へのアプローチを提案する。
我々は,人間の絵画戦略に触発されたセグメンテーションに基づく絵画プロセスとダイナミックアテンションマップアプローチを導入する。
最適化されたバッチ処理とパッチベースの損失フレームワークは、大きなキャンバスの効率的な処理を可能にします。
論文 参考訳(メタデータ) (2023-11-24T04:15:10Z) - Dense Pixel-to-Pixel Harmonization via Continuous Image Representation [22.984119094424056]
Inlicit Neural Networks (HINet) を用いた新しい画像調和手法を提案する。
Retinex理論に触発されて、調和を2つの部分に分離し、合成画像の内容と環境をそれぞれキャプチャする。
本手法の有効性を,最先端の手法と比較した実験により検証した。
論文 参考訳(メタデータ) (2023-03-03T02:52:28Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - ViCE: Self-Supervised Visual Concept Embeddings as Contextual and Pixel
Appearance Invariant Semantic Representations [77.3590853897664]
本研究は,NLPにおける単語埋め込みの学習方法に着想を得た画像に対して,意味論的にリッチな視覚埋め込みを学習するための自己指導的手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T12:27:30Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Differentiable Drawing and Sketching [0.0]
我々は、点、線、曲線をピクセルに描画する過程の微分可能な緩和を示す。
このリラクゼーションにより、エンドツーエンドの差別化可能なプログラムとディープネットワークを学習および最適化できます。
論文 参考訳(メタデータ) (2021-03-30T09:25:55Z) - Spatially-Adaptive Pixelwise Networks for Fast Image Translation [57.359250882770525]
高速かつ効率的な画像-画像変換を目的とした新しいジェネレータアーキテクチャを提案する。
私たちはピクセルワイズネットワークを使用します。つまり、各ピクセルは他のピクセルとは独立して処理されます。
私たちのモデルは最先端のベースラインよりも最大18倍高速です。
論文 参考訳(メタデータ) (2020-12-05T10:02:03Z) - Stylized Neural Painting [0.0]
本稿では,鮮明でリアルな絵画を制御可能なスタイルで生成する画像から絵画への翻訳手法を提案する。
実験により,本手法で作成した絵画は,グローバルな外観と局所的なテクスチャの両方において高い忠実度を有することが示された。
論文 参考訳(メタデータ) (2020-11-16T17:24:21Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。