論文の概要: Neural Style Transfer for Vector Graphics
- arxiv url: http://arxiv.org/abs/2303.03405v1
- Date: Mon, 6 Mar 2023 16:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 17:41:13.539406
- Title: Neural Style Transfer for Vector Graphics
- Title(参考訳): ベクトルグラフィックスのためのニューラルスタイル転送
- Authors: Valeria Efimova, Artyom Chebykin, Ivan Jarsky, Evgenii Prosvirnin,
Andrey Filchenkov
- Abstract要約: ベクトル画像間のスタイル転送は検討されていない。
標準的なコンテンツとスタイルの損失を適用することは、ベクトル画像描画スタイルを著しく変える。
微分可能化に基づく新しい手法は、スタイル画像の描画に対応するコンテンツ画像の色と形状パラメータを変更することができる。
- 参考スコア(独自算出の注目度): 3.8983556368110226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural style transfer draws researchers' attention, but the interest focuses
on bitmap images. Various models have been developed for bitmap image
generation both online and offline with arbitrary and pre-trained styles.
However, the style transfer between vector images has not almost been
considered. Our research shows that applying standard content and style losses
insignificantly changes the vector image drawing style because the structure of
vector primitives differs a lot from pixels. To handle this problem, we
introduce new loss functions. We also develop a new method based on
differentiable rasterization that uses these loss functions and can change the
color and shape parameters of the content image corresponding to the drawing of
the style image. Qualitative experiments demonstrate the effectiveness of the
proposed VectorNST method compared with the state-of-the-art neural style
transfer approaches for bitmap images and the only existing approach for
stylizing vector images, DiffVG. Although the proposed model does not achieve
the quality and smoothness of style transfer between bitmap images, we consider
our work an important early step in this area. VectorNST code and demo service
are available at https://github.com/IzhanVarsky/VectorNST.
- Abstract(参考訳): ニューラルスタイルの転送は研究者の注意を引くが、関心はビットマップ画像に焦点を当てている。
任意のスタイルと事前学習スタイルのビットマップ画像生成のための様々なモデルが開発されている。
しかし,ベクトル画像間のスタイル転送はほとんど検討されていない。
本研究は,ベクトルプリミティブの構造が画素と大きく異なるため,標準的な内容やスタイルの損失がベクトル画像の描画スタイルを大きく変えることを示す。
この問題に対処するために,新しい損失関数を導入する。
また,これらの損失関数を用いて,スタイル画像の描画に対応するコンテンツ画像の色や形状パラメータを変化させる,微分ラスタライズに基づく新しい手法を開発した。
ビットマップ画像に対する最先端のニューラルスタイル転送手法と、ベクトル画像のスタイリングのための唯一の既存手法であるDiffVGと比較して、提案したVectorNST法の有効性を定性的な実験により実証した。
提案モデルではビットマップ画像間のスタイル転送の質やスムーズさは得られないが,本研究はこの分野において重要なステップであると考えている。
VectorNSTのコードとデモサービスはhttps://github.com/IzhanVarsky/VectorNSTで公開されている。
関連論文リスト
- SuperSVG: Superpixel-based Scalable Vector Graphics Synthesis [66.44553285020066]
SuperSVGは、高速かつ高精度な画像ベクトル化を実現するスーパーピクセルベースのベクトル化モデルである。
本稿では,2段階の自己学習フレームワークを提案する。そこでは,粗い段階モデルを用いて主構造を再構築し,細部を充実させるために改良段階モデルを用いる。
再現精度と推定時間の観点から, 最先端手法と比較して, 提案手法の優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-06-14T07:43:23Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Scaling Painting Style Transfer [10.059627473725508]
ニューラル・スタイル・トランスファー(Neural Style Transfer, NST)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度(UHR)画像に対するグローバル最適化の解法を提案する。
このような高精細な絵画スタイルに対して,本手法が不整合品質のスタイル転送を実現することを示す。
論文 参考訳(メタデータ) (2022-12-27T12:03:38Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Non-Parametric Style Transfer [0.9137554315375919]
最近のフィードフォワードニューラル法では、主にエンコードされた特徴写像を2次統計量まで利用している。
我々は,画像のスタイルが受容場からの応答の分布によって表されるという認識に基づいて,2階統計特徴マッチングを一般分布マッチングに拡張する。
この結果から,本手法により得られたスタイリング画像は,コンテンツクリアネスを損なうことなく,既存のすべてのスタイル尺度におけるターゲットスタイル画像とより類似していることが証明された。
論文 参考訳(メタデータ) (2022-06-26T16:34:37Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - StyTr^2: Unbiased Image Style Transfer with Transformers [59.34108877969477]
イメージスタイル転送の目的は、オリジナルコンテンツを維持しながら、スタイル参照によってガイドされた芸術的特徴を持つ画像をレンダリングすることである。
従来のニューラルスタイルの転送法は通常バイアスを受けており、コンテントリークは、同じ参照画像でスタイル転送プロセスの何回かの実行によって観察することができる。
我々は、この重要な問題に対処するために、トランスフォーマーベースのアプローチ、すなわちStyTr2を提案する。
論文 参考訳(メタデータ) (2021-05-30T15:57:09Z) - Stylized Neural Painting [0.0]
本稿では,鮮明でリアルな絵画を制御可能なスタイルで生成する画像から絵画への翻訳手法を提案する。
実験により,本手法で作成した絵画は,グローバルな外観と局所的なテクスチャの両方において高い忠実度を有することが示された。
論文 参考訳(メタデータ) (2020-11-16T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。