論文の概要: Neural Style Transfer for Vector Graphics
- arxiv url: http://arxiv.org/abs/2303.03405v1
- Date: Mon, 6 Mar 2023 16:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 17:41:13.539406
- Title: Neural Style Transfer for Vector Graphics
- Title(参考訳): ベクトルグラフィックスのためのニューラルスタイル転送
- Authors: Valeria Efimova, Artyom Chebykin, Ivan Jarsky, Evgenii Prosvirnin,
Andrey Filchenkov
- Abstract要約: ベクトル画像間のスタイル転送は検討されていない。
標準的なコンテンツとスタイルの損失を適用することは、ベクトル画像描画スタイルを著しく変える。
微分可能化に基づく新しい手法は、スタイル画像の描画に対応するコンテンツ画像の色と形状パラメータを変更することができる。
- 参考スコア(独自算出の注目度): 3.8983556368110226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural style transfer draws researchers' attention, but the interest focuses
on bitmap images. Various models have been developed for bitmap image
generation both online and offline with arbitrary and pre-trained styles.
However, the style transfer between vector images has not almost been
considered. Our research shows that applying standard content and style losses
insignificantly changes the vector image drawing style because the structure of
vector primitives differs a lot from pixels. To handle this problem, we
introduce new loss functions. We also develop a new method based on
differentiable rasterization that uses these loss functions and can change the
color and shape parameters of the content image corresponding to the drawing of
the style image. Qualitative experiments demonstrate the effectiveness of the
proposed VectorNST method compared with the state-of-the-art neural style
transfer approaches for bitmap images and the only existing approach for
stylizing vector images, DiffVG. Although the proposed model does not achieve
the quality and smoothness of style transfer between bitmap images, we consider
our work an important early step in this area. VectorNST code and demo service
are available at https://github.com/IzhanVarsky/VectorNST.
- Abstract(参考訳): ニューラルスタイルの転送は研究者の注意を引くが、関心はビットマップ画像に焦点を当てている。
任意のスタイルと事前学習スタイルのビットマップ画像生成のための様々なモデルが開発されている。
しかし,ベクトル画像間のスタイル転送はほとんど検討されていない。
本研究は,ベクトルプリミティブの構造が画素と大きく異なるため,標準的な内容やスタイルの損失がベクトル画像の描画スタイルを大きく変えることを示す。
この問題に対処するために,新しい損失関数を導入する。
また,これらの損失関数を用いて,スタイル画像の描画に対応するコンテンツ画像の色や形状パラメータを変化させる,微分ラスタライズに基づく新しい手法を開発した。
ビットマップ画像に対する最先端のニューラルスタイル転送手法と、ベクトル画像のスタイリングのための唯一の既存手法であるDiffVGと比較して、提案したVectorNST法の有効性を定性的な実験により実証した。
提案モデルではビットマップ画像間のスタイル転送の質やスムーズさは得られないが,本研究はこの分野において重要なステップであると考えている。
VectorNSTのコードとデモサービスはhttps://github.com/IzhanVarsky/VectorNSTで公開されている。
関連論文リスト
- A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Non-Parametric Style Transfer [0.9137554315375919]
最近のフィードフォワードニューラル法では、主にエンコードされた特徴写像を2次統計量まで利用している。
我々は,画像のスタイルが受容場からの応答の分布によって表されるという認識に基づいて,2階統計特徴マッチングを一般分布マッチングに拡張する。
この結果から,本手法により得られたスタイリング画像は,コンテンツクリアネスを損なうことなく,既存のすべてのスタイル尺度におけるターゲットスタイル画像とより類似していることが証明された。
論文 参考訳(メタデータ) (2022-06-26T16:34:37Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - StyTr^2: Unbiased Image Style Transfer with Transformers [59.34108877969477]
イメージスタイル転送の目的は、オリジナルコンテンツを維持しながら、スタイル参照によってガイドされた芸術的特徴を持つ画像をレンダリングすることである。
従来のニューラルスタイルの転送法は通常バイアスを受けており、コンテントリークは、同じ参照画像でスタイル転送プロセスの何回かの実行によって観察することができる。
我々は、この重要な問題に対処するために、トランスフォーマーベースのアプローチ、すなわちStyTr2を提案する。
論文 参考訳(メタデータ) (2021-05-30T15:57:09Z) - Stylized Neural Painting [0.0]
本稿では,鮮明でリアルな絵画を制御可能なスタイルで生成する画像から絵画への翻訳手法を提案する。
実験により,本手法で作成した絵画は,グローバルな外観と局所的なテクスチャの両方において高い忠実度を有することが示された。
論文 参考訳(メタデータ) (2020-11-16T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。