論文の概要: Image Vectorization: a Review
- arxiv url: http://arxiv.org/abs/2306.06441v1
- Date: Sat, 10 Jun 2023 13:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:53:43.164732
- Title: Image Vectorization: a Review
- Title(参考訳): 画像ベクトル化:一考察
- Authors: Maria Dziuba, Ivan Jarsky, Valeria Efimova and Andrey Filchenkov
- Abstract要約: ベクトル画像を直接生成するのではなく、まずイメージを合成し、次にベクトル化を適用することができる。
本稿では,機械学習互換ベクトル化手法に特化して着目する。
- 参考スコア(独自算出の注目度): 4.258673477256579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, there are many diffusion and autoregressive models that show
impressive results for generating images from text and other input domains.
However, these methods are not intended for ultra-high-resolution image
synthesis. Vector graphics are devoid of this disadvantage, so the generation
of images in this format looks very promising. Instead of generating vector
images directly, you can first synthesize a raster image and then apply
vectorization. Vectorization is the process of converting a raster image into a
similar vector image using primitive shapes. Besides being similar, generated
vector image is also required to contain the minimum number of shapes for
rendering. In this paper, we focus specifically on machine learning-compatible
vectorization methods. We are considering Mang2Vec, Deep Vectorization of
Technical Drawings, DiffVG, and LIVE models. We also provide a brief overview
of existing online methods. We also recall other algorithmic methods, Im2Vec
and ClipGEN models, but they do not participate in the comparison, since there
is no open implementation of these methods or their official implementations do
not work correctly. Our research shows that despite the ability to directly
specify the number and type of shapes, existing machine learning methods work
for a very long time and do not accurately recreate the original image. We
believe that there is no fast universal automatic approach and human control is
required for every method.
- Abstract(参考訳): 現在、テキストや他の入力領域から画像を生成するための印象的な結果を示す拡散・自己回帰モデルが多数存在する。
しかし、これらの手法は超高分解能画像合成を意図していない。
ベクトルグラフィックスはこの欠点を欠いているので、このフォーマットでの画像の生成は非常に有望に思える。
直接ベクトル画像を生成する代わりに、まずラスタ画像を合成し、次にベクトル化を適用することができる。
ベクトル化は、原始形状を用いてラスタ画像を類似したベクトル画像に変換する過程である。
類似性に加えて、生成したベクトル画像はレンダリングのための最小の形状を含む必要がある。
本稿では,機械学習に適合するベクトル化手法に着目した。
我々はMang2Vec、Deep Vectorization of Technical Drawings、DiffVG、LIVEモデルを検討している。
また,既存のオンライン手法の概要についても概説する。
また,他のアルゴリズム手法,Im2Vec と ClipGEN モデルも参照するが,これらの手法のオープン実装や公式実装が正しく動作しないため,比較には参加していない。
本研究は, 形状や形状を直接指定できるにもかかわらず, 既存の機械学習手法が非常に長く動作し, 元の画像を正確に再現することができないことを示す。
我々は、高速な普遍的自動アプローチはなく、あらゆる方法に人的制御が必要であると考えている。
関連論文リスト
- Unsupervised Deep Learning Image Verification Method [0.0]
提案手法は,Wildデータセットのラベル付き顔のベースラインシステムよりもEERの56%の相対的な改善を実現している。
これにより、コサインとPLDAのスコアリングシステムのパフォーマンスギャップを狭めることに成功した。
論文 参考訳(メタデータ) (2023-12-22T02:52:54Z) - Optimize and Reduce: A Top-Down Approach for Image Vectorization [12.998637003026273]
高速かつドメインに依存しないベクトル化へのトップダウンアプローチであるOptimize & Reduce (O&R)を提案する。
O&Rの目的は、B'ezier曲線パラメータを反復的に最適化することで、入力画像のコンパクトな表現を実現することである。
提案手法はドメインに依存しないものであり,固定された形状に対する再現性および知覚的品質の両方において,既存の作品よりも優れることを示す。
論文 参考訳(メタデータ) (2023-12-18T16:41:03Z) - SAMVG: A Multi-stage Image Vectorization Model with the Segment-Anything
Model [59.40189857428461]
画像をSVG(Scalable Vector Graphics)にベクトル化する多段階モデルを提案する。
第一に、SAMVGはSegment-Anything Modelによって提供される一般的な画像セグメンテーションを使い、新しいフィルタリング手法を用いて画像全体の最も高密度なセグメンテーションマップを識別する。
次に、SAMVGは欠落したコンポーネントを特定し、SVGにより詳細なコンポーネントを追加する。
論文 参考訳(メタデータ) (2023-11-09T11:11:56Z) - Neural Style Transfer for Vector Graphics [3.8983556368110226]
ベクトル画像間のスタイル転送は検討されていない。
標準的なコンテンツとスタイルの損失を適用することは、ベクトル画像描画スタイルを著しく変える。
微分可能化に基づく新しい手法は、スタイル画像の描画に対応するコンテンツ画像の色と形状パラメータを変更することができる。
論文 参考訳(メタデータ) (2023-03-06T16:57:45Z) - VectorFusion: Text-to-SVG by Abstracting Pixel-Based Diffusion Models [82.93345261434943]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,SVG-exportable vector graphicsを生成する。
近年のテキスト・ツー・3D研究に触発されて,Score Distillation Smpling を用いたキャプションと整合したSVGを学習した。
実験では、以前の作品よりも品質が向上し、ピクセルアートやスケッチを含む様々なスタイルが示されている。
論文 参考訳(メタデータ) (2022-11-21T10:04:27Z) - EpiGRAF: Rethinking training of 3D GANs [60.38818140637367]
本稿では,SotA画像品質の高い高解像度3Dジェネレータを,パッチワイズを単純に訓練するまったく異なる経路を辿ることによって実現可能であることを示す。
EpiGRAFと呼ばれる結果のモデルは、効率的で高解像度で純粋な3Dジェネレータである。
論文 参考訳(メタデータ) (2022-06-21T17:08:23Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - Im2Vec: Synthesizing Vector Graphics without Vector Supervision [31.074606918245298]
ベクトルグラフィックスはフォント、ロゴ、デジタルアートワーク、グラフィックデザインを表現するために広く使われている。
入力グラフィックを常に調整し、画像ベースの生成アプローチを利用することができる。
訓練時のベクトル表現の明示的な監督を必要とする現在のモデルは、入手が困難である。
様々なトポロジを持つ複雑なベクトルグラフを生成するニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:39:45Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。