論文の概要: Flow-Guided Controllable Line Drawing Generation
- arxiv url: http://arxiv.org/abs/2307.07540v1
- Date: Fri, 14 Jul 2023 14:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 19:16:37.944761
- Title: Flow-Guided Controllable Line Drawing Generation
- Title(参考訳): フロー誘導制御線描画生成
- Authors: Chengyu Fang, Xianfeng Han
- Abstract要約: 本稿では,ベクトルフロー場を学習的手法で効率的に,かつ堅牢に作成するためのイメージ・トゥ・フロー・ネットワーク(I2FNet)を提案する。
次に、よく設計されたDouble Flow Generator (DFG)フレームワークを導入し、学習したベクトルフローと入力イメージフローから特徴を融合する。
制御可能な文字線描画生成を実現するため,線形制御行列をDFGに統合し,線形制御回帰器を訓練する。
- 参考スコア(独自算出の注目度): 4.7210697296108926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate the problem of automatically controllable
artistic character line drawing generation from photographs by proposing a
Vector Flow Aware and Line Controllable Image-to-Image Translation
architecture, which can be viewed as an appealing intersection between
Artificial Intelligence and Arts. Specifically, we first present an
Image-to-Flow network (I2FNet) to efficiently and robustly create the vector
flow field in a learning-based manner, which can provide a direction guide for
drawing lines. Then, we introduce our well-designed Double Flow Generator (DFG)
framework to fuse features from learned vector flow and input image flow
guaranteeing the spatial coherence of lines. Meanwhile, in order to allow for
controllable character line drawing generation, we integrate a Line Control
Matrix (LCM) into DFG and train a Line Control Regressor (LCR) to synthesize
drawings with different styles by elaborately controlling the level of details,
such as thickness, smoothness, and continuity, of lines. Finally, we design a
Fourier Transformation Loss to further constrain the character line generation
from the frequency domain view of the point. Quantitative and qualitative
experiments demonstrate that our approach can obtain superior performance in
producing high-resolution character line-drawing images with perceptually
realistic characteristics.
- Abstract(参考訳): 本稿では,人工知能と芸術の魅力的な交点と見なすことができるベクトルフロー認識および線制御可能な画像対画像翻訳アーキテクチャを提案することにより,写真から自動制御可能な芸術的キャラクタ線描画の問題を検討する。
具体的には,まず画像対フローネットワーク(i2fnet)を用いて,ベクトル流れ場を学習ベースで効率的かつロバストに作成する手法を提案する。
次に,学習ベクトルフローと入力画像フローから特徴を融合し,線の空間的コヒーレンスを保証するためのdfg(double flow generator)フレームワークを提案する。
一方,制御可能な文字線描画生成を可能にするために,ライン制御行列(LCM)をDFGに統合し,ライン制御レグレッサ(LCR)を訓練し,ラインの厚み,滑らかさ,連続性といった細部を精巧に制御することで,異なるスタイルで描画を合成する。
最後に,Fourier Transformation Lossを設計し,その点の周波数領域からの文字列生成をさらに制約する。
定量的・定性的な実験により,本手法は知覚的に現実的な特徴を有する高分解能文字線描画画像の生成において優れた性能が得られることを示す。
関連論文リスト
- TraDiffusion: Trajectory-Based Training-Free Image Generation [85.39724878576584]
そこで我々は,TraDiffusion(トラディフュージョン)と呼ばれる,訓練のないトラジェクトリベースの制御可能なT2Iアプローチを提案する。
この手法により、マウスの軌跡を通した画像生成を無駄にガイドすることができる。
論文 参考訳(メタデータ) (2024-08-19T07:01:43Z) - Text-to-Vector Generation with Neural Path Representation [27.949704002538944]
本稿では,シーケンスと画像の両モードから経路潜在空間を学習するニューラルパス表現を提案する。
第1段階では、事前訓練されたテキスト・ツー・イメージ拡散モデルにより、複雑なベクトルグラフィックスの初期生成が導かれる。
第2段階では、レイヤワイズ画像ベクトル化戦略を用いてグラフィクスを洗練し、より明確な要素と構造を実現する。
論文 参考訳(メタデータ) (2024-05-16T17:59:22Z) - D-Flow: Differentiating through Flows for Controlled Generation [37.80603174399585]
フローを微分することで生成プロセスを制御するフレームワークであるD-Flowを紹介する。
我々は、ガウス確率パスで訓練された拡散/FMモデルに対して、生成過程を微分することで、データ多様体の勾配を予測できるというキーとなる観察によって、この枠組みを動機付けている。
我々は,画像と音声の逆問題や条件分子生成など,線形および非線形に制御された生成問題に対する枠組みを検証する。
論文 参考訳(メタデータ) (2024-02-21T18:56:03Z) - End-to-End Diffusion Latent Optimization Improves Classifier Guidance [81.27364542975235]
拡散潜水剤(DOODL)の直接最適化は,新しいガイダンス手法である。
拡散潜伏剤の最適化によるプラグアンドプレイ誘導を可能にする。
計算と人的評価の指標において、一段階の分類器ガイダンスよりも優れている。
論文 参考訳(メタデータ) (2023-03-23T22:43:52Z) - Graph Decision Transformer [83.76329715043205]
グラフ決定変換器(GDT)は、新しいオフライン強化学習手法である。
GDTは入力シーケンスを因果グラフにモデル化し、基本的な異なる概念間の潜在的な依存関係をキャプチャする。
実験の結果,GDT は画像ベース Atari と OpenAI の Gym 上で,最先端のオフライン RL 手法の性能と一致しているか,上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-07T09:10:34Z) - Hierarchical Semantic Regularization of Latent Spaces in StyleGANs [53.98170188547775]
本稿では,階層型意味正規化器(HSR)を提案する。これは,生成元が学習した階層的表現と,事前学習したネットワークが大量のデータに基づいて学習する強力な特徴とを一致させる。
HSRは、ジェネレータ表現の改善だけでなく、潜在スタイル空間の線形性と滑らかさも示しており、より自然なスタイル編集画像の生成につながっている。
論文 参考訳(メタデータ) (2022-08-07T16:23:33Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - Differentiable Drawing and Sketching [0.0]
我々は、点、線、曲線をピクセルに描画する過程の微分可能な緩和を示す。
このリラクゼーションにより、エンドツーエンドの差別化可能なプログラムとディープネットワークを学習および最適化できます。
論文 参考訳(メタデータ) (2021-03-30T09:25:55Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Controllable Continuous Gaze Redirection [47.15883248953411]
制御可能な視線リダイレクトのための新しいフレームワークであるInterpGazeを提案する。
我々のゴールは、ある人物の視線を基準画像に描かれたあらゆる視線方向へとリダイレクトすることである。
提案したInterpGazeは、画像の品質とリダイレクト精度で最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-10-09T11:50:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。