論文の概要: Flow-Guided Controllable Line Drawing Generation
- arxiv url: http://arxiv.org/abs/2307.07540v2
- Date: Thu, 24 Aug 2023 09:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 17:17:33.314480
- Title: Flow-Guided Controllable Line Drawing Generation
- Title(参考訳): フロー誘導制御線描画生成
- Authors: Chengyu Fang, Xianfeng Han
- Abstract要約: 本稿では,ベクトルフロー場を学習的手法で効率的に,かつ堅牢に作成するためのイメージ・トゥ・フロー・ネットワーク(I2FNet)を提案する。
次に、よく設計されたDouble Flow Generator (DFG)フレームワークを導入し、学習したベクトルフローと入力イメージフローから特徴を融合する。
制御可能な文字線描画生成を実現するため,線形制御行列をDFGに統合し,線形制御回帰器を訓練する。
- 参考スコア(独自算出の注目度): 6.200483285433661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate the problem of automatically controllable
artistic character line drawing generation from photographs by proposing a
Vector Flow Aware and Line Controllable Image-to-Image Translation
architecture, which can be viewed as an appealing intersection between
Artificial Intelligence and Arts. Specifically, we first present an
Image-to-Flow network (I2FNet) to efficiently and robustly create the vector
flow field in a learning-based manner, which can provide a direction guide for
drawing lines. Then, we introduce our well-designed Double Flow Generator (DFG)
framework to fuse features from learned vector flow and input image flow
guaranteeing the spatial coherence of lines. Meanwhile, in order to allow for
controllable character line drawing generation, we integrate a Line Control
Matrix (LCM) into DFG and train a Line Control Regressor (LCR) to synthesize
drawings with different styles by elaborately controlling the level of details,
such as thickness, smoothness, and continuity, of lines. Finally, we design a
Fourier Transformation Loss to further constrain the character line generation
from the frequency domain view of the point. Quantitative and qualitative
experiments demonstrate that our approach can obtain superior performance in
producing high-resolution character line-drawing images with perceptually
realistic characteristics.
- Abstract(参考訳): 本稿では,人工知能と芸術の魅力的な交点と見なすことができるベクトルフロー認識および線制御可能な画像対画像翻訳アーキテクチャを提案することにより,写真から自動制御可能な芸術的キャラクタ線描画の問題を検討する。
具体的には,まず画像対フローネットワーク(i2fnet)を用いて,ベクトル流れ場を学習ベースで効率的かつロバストに作成する手法を提案する。
次に,学習ベクトルフローと入力画像フローから特徴を融合し,線の空間的コヒーレンスを保証するためのdfg(double flow generator)フレームワークを提案する。
一方,制御可能な文字線描画生成を可能にするために,ライン制御行列(LCM)をDFGに統合し,ライン制御レグレッサ(LCR)を訓練し,ラインの厚み,滑らかさ,連続性といった細部を精巧に制御することで,異なるスタイルで描画を合成する。
最後に,Fourier Transformation Lossを設計し,その点の周波数領域からの文字列生成をさらに制約する。
定量的・定性的な実験により,本手法は知覚的に現実的な特徴を有する高分解能文字線描画画像の生成において優れた性能が得られることを示す。
関連論文リスト
- SwiftSketch: A Diffusion Model for Image-to-Vector Sketch Generation [57.47730473674261]
我々は,画像条件付きベクトルスケッチ生成モデルであるSwiftSketchを紹介した。
SwiftSketchは、ガウス分布からサンプリングされたストローク制御ポイントを段階的に復調することによって動作する。
ControlSketchは、深度認識制御ネットを通じて正確な空間制御を組み込むことで、SDSベースの技術を強化する方法である。
論文 参考訳(メタデータ) (2025-02-12T18:57:12Z) - LayerTracer: Cognitive-Aligned Layered SVG Synthesis via Diffusion Transformer [17.881925697226656]
LayerTracerは拡散トランスフォーマーで、設計者の階層化された生成プロセスを、シーケンシャルな設計操作の新たなデータセットから学習することでギャップを埋める。
画像ベクトル化には,参照画像を潜在トークンにエンコードする条件拡散機構を導入する。
実験では、生成品質と編集性の両方において、最適化ベースとニューラルベースラインに対してLayerTracerの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-02-03T06:49:58Z) - FluxSpace: Disentangled Semantic Editing in Rectified Flow Transformers [4.710921988115686]
本稿では,整流トランスによって生成された画像の意味を制御できる領域に依存しない画像編集手法であるFluxSpaceを紹介する。
修正フローモデル内の変圧器ブロックで学習した表現を活用することで,幅広い画像編集作業を可能にする意味論的解釈可能な表現セットを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:59:40Z) - Steering Rectified Flow Models in the Vector Field for Controlled Image Generation [53.965218831845995]
拡散モデル(DM)は、フォトリアリズム、画像編集、逆問題解決に優れ、分類器なしのガイダンスと画像反転技術によって支援される。
既存のDMベースの手法は、しばしば追加のトレーニングを必要とし、事前訓練された潜在モデルへの一般化が欠如し、ODEソルバと反転プロセスによる広範なバックプロパゲーションにより、計算資源が要求される。
本研究では,ベクトル場を利用した画像生成タスクのデノイング軌道の制御を行うFlowChefを提案する。
FlowChefは、パフォーマンス、メモリ、時間要件の点でベースラインを大幅に上回り、新しい状態を達成する。
論文 参考訳(メタデータ) (2024-11-27T19:04:40Z) - Text-to-Vector Generation with Neural Path Representation [27.949704002538944]
本稿では,シーケンスと画像の両モードから経路潜在空間を学習するニューラルパス表現を提案する。
第1段階では、事前訓練されたテキスト・ツー・イメージ拡散モデルにより、複雑なベクトルグラフィックスの初期生成が導かれる。
第2段階では、レイヤワイズ画像ベクトル化戦略を用いてグラフィクスを洗練し、より明確な要素と構造を実現する。
論文 参考訳(メタデータ) (2024-05-16T17:59:22Z) - D-Flow: Differentiating through Flows for Controlled Generation [37.80603174399585]
フローを微分することで生成プロセスを制御するフレームワークであるD-Flowを紹介する。
我々は、ガウス確率パスで訓練された拡散/FMモデルに対して、生成過程を微分することで、データ多様体の勾配を予測できるというキーとなる観察によって、この枠組みを動機付けている。
我々は,画像と音声の逆問題や条件分子生成など,線形および非線形に制御された生成問題に対する枠組みを検証する。
論文 参考訳(メタデータ) (2024-02-21T18:56:03Z) - End-to-End Diffusion Latent Optimization Improves Classifier Guidance [81.27364542975235]
拡散潜水剤(DOODL)の直接最適化は,新しいガイダンス手法である。
拡散潜伏剤の最適化によるプラグアンドプレイ誘導を可能にする。
計算と人的評価の指標において、一段階の分類器ガイダンスよりも優れている。
論文 参考訳(メタデータ) (2023-03-23T22:43:52Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。