論文の概要: NIVeL: Neural Implicit Vector Layers for Text-to-Vector Generation
- arxiv url: http://arxiv.org/abs/2405.15217v1
- Date: Fri, 24 May 2024 05:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 17:59:14.995434
- Title: NIVeL: Neural Implicit Vector Layers for Text-to-Vector Generation
- Title(参考訳): NIVeL:テキスト・ツー・ベクター生成のためのニューラルインプリシトベクトル層
- Authors: Vikas Thamizharasan, Difan Liu, Matthew Fisher, Nanxuan Zhao, Evangelos Kalogerakis, Michal Lukac,
- Abstract要約: NIVeL はこの問題をベクトルグラフィックスの望ましい特性を保存する別の中間領域で再解釈する。
実験の結果,NIVeL はテキストからベクターまでのグラフィクスの結果を,最先端のグラフィクスよりもはるかに高い品質で生成した。
- 参考スコア(独自算出の注目度): 27.22029199085009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of denoising diffusion models in representing rich data distributions over 2D raster images has prompted research on extending them to other data representations, such as vector graphics. Unfortunately due to their variable structure and scarcity of vector training data, directly applying diffusion models on this domain remains a challenging problem. Using workarounds like optimization via Score Distillation Sampling (SDS) is also fraught with difficulty, as vector representations are non trivial to directly optimize and tend to result in implausible geometries such as redundant or self-intersecting shapes. NIVeL addresses these challenges by reinterpreting the problem on an alternative, intermediate domain which preserves the desirable properties of vector graphics -- mainly sparsity of representation and resolution-independence. This alternative domain is based on neural implicit fields expressed in a set of decomposable, editable layers. Based on our experiments, NIVeL produces text-to-vector graphics results of significantly better quality than the state-of-the-art.
- Abstract(参考訳): 2次元ラスタ画像上のリッチなデータ分布を表現する拡散モデルが成功し、ベクトルグラフィックスなどの他のデータ表現に拡張する研究が進められた。
残念ながら、その変動構造とベクトルトレーニングデータの不足のため、この領域に拡散モデルを直接適用することは難しい問題である。
SDS(Score Distillation Sampling)による最適化のような回避策は、ベクトル表現が直接最適化するのは簡単ではなく、冗長な形や自己交差的な形のような不確実な幾何学をもたらす傾向があるため、難易度も高い。
NIVeLは、ベクトルグラフィックスの望ましい特性(主に表現の空間性と分解独立性)を保存した代替の中間領域で問題を再解釈することで、これらの課題に対処する。
この代替ドメインは、分解可能で編集可能なレイヤのセットで表現される神経暗黙のフィールドに基づいている。
実験の結果,NIVeL はテキストからベクターまでのグラフィクスの結果を,最先端のグラフィクスよりもはるかに高い品質で生成した。
関連論文リスト
- Segmentation-guided Layer-wise Image Vectorization with Gradient Fills [6.037332707968933]
そこで本稿では,画像を勾配を埋め込んだ簡潔なベクトルグラフに変換するためのセグメンテーション誘導ベクトル化フレームワークを提案する。
組込み勾配認識セグメンテーションの指導により, 段階的に勾配を埋め込んだB'ezierパスを出力に付加する。
論文 参考訳(メタデータ) (2024-08-28T12:08:25Z) - Optimize and Reduce: A Top-Down Approach for Image Vectorization [12.998637003026273]
高速かつドメインに依存しないベクトル化へのトップダウンアプローチであるOptimize & Reduce (O&R)を提案する。
O&Rの目的は、B'ezier曲線パラメータを反復的に最適化することで、入力画像のコンパクトな表現を実現することである。
提案手法はドメインに依存しないものであり,固定された形状に対する再現性および知覚的品質の両方において,既存の作品よりも優れることを示す。
論文 参考訳(メタデータ) (2023-12-18T16:41:03Z) - FineMorphs: Affine-diffeomorphic sequences for regression [1.1421942894219896]
モデル状態は学習中に滑らかなベクトル場によって生成される微分同相によって最適に「再形」される。
アフィン変換とベクトル場は最適制御設定内で最適化される。
このモデルは次元を自然に減らし(あるいは増大させる)、最適なベクトル場を通して大きなデータセットに適応することができる。
論文 参考訳(メタデータ) (2023-05-26T20:54:18Z) - Polygonizer: An auto-regressive building delineator [12.693238093510072]
本稿では,直接形状推定が可能なイメージ・ツー・シーケンス・モデルを提案する。
リモートセンシングアプリケーションでよく見られる変動やアーチファクトに対応する画像入力の摂動など、モデルの性能を様々な方法で示す。
論文 参考訳(メタデータ) (2023-04-08T15:36:48Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Neural Vector Fields: Implicit Representation by Explicit Learning [63.337294707047036]
ニューラルベクトル場 (Neural Vector Fields, NVF) という新しい3次元表現法を提案する。
メッシュを直接操作するための明示的な学習プロセスを採用するだけでなく、符号なし距離関数(UDF)の暗黙的な表現も採用している。
提案手法は,まず表面への変位クエリを予測し,テキスト再構成として形状をモデル化する。
論文 参考訳(メタデータ) (2023-03-08T02:36:09Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Latent Transformations via NeuralODEs for GAN-based Image Editing [25.272389610447856]
トレーニング可能なNeural ODEのフローとして実現された非線形潜時符号操作は、多くの実用的な非顔画像領域にとって有益であることを示す。
特に、既知の属性を持つ多数のデータセットを調査し、ある属性操作が線形シフトのみで取得することが困難であることを実証する。
論文 参考訳(メタデータ) (2021-11-29T18:59:54Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。