論文の概要: Controlling Geometric Abstraction and Texture for Artistic Images
- arxiv url: http://arxiv.org/abs/2308.00148v1
- Date: Mon, 31 Jul 2023 20:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 16:20:38.861135
- Title: Controlling Geometric Abstraction and Texture for Artistic Images
- Title(参考訳): アーティスト画像の幾何学的抽象化とテクスチャ制御
- Authors: Martin B\"u{\ss}emeyer, Max Reimann, Benito Buchheim, Amir Semmo,
J\"urgen D\"ollner, Matthias Trapp
- Abstract要約: 本稿では,芸術的画像における幾何学的抽象化とテクスチャのインタラクティブな制御法を提案する。
以前の例に基づくスタイリング手法は、しばしば形状、テクスチャ、色を絡ませるが、画像合成のための生成法は一般的に入力画像について仮定する。
対照的に、我々の全体論的アプローチは、入力を空間的に形状に分解し、画像のテクスチャを構成する高周波詳細のパラメトリック表現により、色とテクスチャの独立制御を可能にする。
- 参考スコア(独自算出の注目度): 0.22835610890984162
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a novel method for the interactive control of geometric
abstraction and texture in artistic images. Previous example-based stylization
methods often entangle shape, texture, and color, while generative methods for
image synthesis generally either make assumptions about the input image, such
as only allowing faces or do not offer precise editing controls. By contrast,
our holistic approach spatially decomposes the input into shapes and a
parametric representation of high-frequency details comprising the image's
texture, thus enabling independent control of color and texture. Each parameter
in this representation controls painterly attributes of a pipeline of
differentiable stylization filters. The proposed decoupling of shape and
texture enables various options for stylistic editing, including interactive
global and local adjustments of shape, stroke, and painterly attributes such as
surface relief and contours. Additionally, we demonstrate optimization-based
texture style-transfer in the parametric space using reference images and text
prompts, as well as the training of single- and arbitrary style parameter
prediction networks for real-time texture decomposition.
- Abstract(参考訳): 芸術画像における幾何学的抽象とテクスチャのインタラクティブな制御法を提案する。
以前の例ベースのスタイリング手法は、しばしば形状、テクスチャ、色を絡ませるが、画像合成のための生成法は一般的に、顔のみを許すか、正確な編集制御を提供しないような入力画像に関する仮定を行う。
対照的に、我々の全体論的アプローチは、入力を空間的に形状に分解し、画像のテクスチャを構成する高周波詳細のパラメトリック表現により、色とテクスチャの独立制御を可能にする。
この表現の各パラメータは、微分可能なスタイライゼーションフィルタのパイプラインの画家的属性を制御する。
形状とテクスチャの切り離しにより,インタラクティブなグローバル・局所的な形状調整,ストローク,表面のレリーフや輪郭などの絵画特性など,スタイル的な編集の様々な選択肢が可能になる。
さらに,参照画像とテキストプロンプトを用いたパラメトリック空間における最適化に基づくテクスチャ変換と,リアルタイムテクスチャ分解のための単一および任意のスタイルパラメータ予測ネットワークのトレーニングを実演する。
関連論文リスト
- Zero-Painter: Training-Free Layout Control for Text-to-Image Synthesis [63.757624792753205]
レイアウト条件のテキスト-画像合成のためのZero-Painterを提案する。
本手法では,オブジェクトマスクと個々の記述とグローバルテキストプロンプトを組み合わせることで,忠実度の高い画像を生成する。
論文 参考訳(メタデータ) (2024-06-06T13:02:00Z) - Compositional Neural Textures [25.885557234297835]
この研究は、合成ニューラルモデルを用いてテクスチャを表現するための、完全に教師なしのアプローチを導入する。
我々は,各テキストを,空間的支持がその形状を近似する2次元ガウス関数と,その詳細な外観を符号化する関連する特徴として表現する。
このアプローチは、画像テクスチャから他のイメージへの外観の移動、テクスチャの多様化、テクスチャのバリエーションの明示/修正、編集の伝播、テクスチャアニメーション、ダイレクトテキスト操作など、幅広いアプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-04-18T21:09:34Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Locally Stylized Neural Radiance Fields [30.037649804991315]
局所的なスタイル伝達に基づくニューラルレイディアンスフィールド(NeRF)のスタイリングフレームワークを提案する。
特に、ハッシュグリッド符号化を用いて外観や幾何学的要素の埋め込みを学習する。
提案手法は, 新規なビュー合成により, 可視なスタイリゼーション結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-19T15:08:10Z) - Realtime Fewshot Portrait Stylization Based On Geometric Alignment [32.224973317381426]
本稿では,リアルタイムなモバイルアプリケーションのためのポートレートスタイリング手法を提案する。
それまでの学習に基づくスタイリング手法は、ポートレートドメインとスタイルドメインの間の幾何学的および意味的なギャップに悩まされていた。
人間の顔の属性の幾何学的先行に基づいて,この問題に対処するために幾何学的アライメントを活用することを提案する。
論文 参考訳(メタデータ) (2022-11-28T16:53:19Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Stylized Neural Painting [0.0]
本稿では,鮮明でリアルな絵画を制御可能なスタイルで生成する画像から絵画への翻訳手法を提案する。
実験により,本手法で作成した絵画は,グローバルな外観と局所的なテクスチャの両方において高い忠実度を有することが示された。
論文 参考訳(メタデータ) (2020-11-16T17:24:21Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Image Morphing with Perceptual Constraints and STN Alignment [70.38273150435928]
本稿では,一対の入力画像で動作する条件付きGANモーフィングフレームワークを提案する。
特別なトレーニングプロトコルは、知覚的類似性損失と組み合わせてフレームのシーケンスを生成し、時間とともにスムーズな変換を促進する。
我々は、古典的かつ潜時的な空間変形技術との比較を行い、自己スーパービジョンのための一連の画像から、我々のネットワークが視覚的に楽しむモーフィング効果を生成することを実証する。
論文 参考訳(メタデータ) (2020-04-29T10:49:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。