論文の概要: AnimatePainter: A Self-Supervised Rendering Framework for Reconstructing Painting Process
- arxiv url: http://arxiv.org/abs/2503.17029v1
- Date: Fri, 21 Mar 2025 10:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:43.210663
- Title: AnimatePainter: A Self-Supervised Rendering Framework for Reconstructing Painting Process
- Title(参考訳): AnimatePainter: ペイントプロセスの再構築のための自己監督型レンダリングフレームワーク
- Authors: Junjie Hu, Shuyong Gao, Qianyu Guo, Yan Wang, Qishan Wang, Yuang Feng, Wenqiang Zhang,
- Abstract要約: 任意の画像から描画プロセスを生成するための自己教師型フレームワークを提案する。
提案手法では, 基準画像からストロークを段階的に除去し, 人為的な生成シーケンスをシミュレートすることで, 描画過程を逆転させる。
我々は、人間の描画を「精細化」および「層化」プロセスとしてモデル化し、深層融合層を導入し、映像生成モデルによる人間の描画行動の学習と再現を可能にする。
- 参考スコア(独自算出の注目度): 27.652358927257573
- License:
- Abstract: Humans can intuitively decompose an image into a sequence of strokes to create a painting, yet existing methods for generating drawing processes are limited to specific data types and often rely on expensive human-annotated datasets. We propose a novel self-supervised framework for generating drawing processes from any type of image, treating the task as a video generation problem. Our approach reverses the drawing process by progressively removing strokes from a reference image, simulating a human-like creation sequence. Crucially, our method does not require costly datasets of real human drawing processes; instead, we leverage depth estimation and stroke rendering to construct a self-supervised dataset. We model human drawings as "refinement" and "layering" processes and introduce depth fusion layers to enable video generation models to learn and replicate human drawing behavior. Extensive experiments validate the effectiveness of our approach, demonstrating its ability to generate realistic drawings without the need for real drawing process data.
- Abstract(参考訳): 人間はイメージを直感的に一列のストロークに分解して絵を作ることができるが、描画プロセスを生成する既存の方法は特定のデータタイプに限られており、高価な人間の注釈付きデータセットに依存していることが多い。
本稿では,任意の画像から描画プロセスを生成するための新たな自己教師型フレームワークを提案し,そのタスクを映像生成問題として扱う。
提案手法では, 基準画像からストロークを段階的に除去し, 人為的な生成シーケンスをシミュレートすることで, 描画過程を逆転させる。
重要なことは、本手法は実際の人間の描画過程のコストの高いデータセットを必要としない。代わりに、深度推定とストロークレンダリングを活用して、自己教師付きデータセットを構築する。
我々は、人間の描画を「精細化」および「層化」プロセスとしてモデル化し、深層融合層を導入し、映像生成モデルによる人間の描画行動の学習と再現を可能にする。
大規模な実験により本手法の有効性が検証され,実際の描画処理データを必要としない実写図面を生成する能力が実証された。
関連論文リスト
- Learning to Synthesize Graphics Programs for Geometric Artworks [12.82009632507056]
本稿では,一連の描画ツールを実行可能なプログラムとして扱うアプローチを提案する。
この方法は最終画像を得るための一連のステップを予測する。
プログラムシンセサイザーArt2Progは複雑な入力画像を包括的に理解できることを示す。
論文 参考訳(メタデータ) (2024-10-21T08:28:11Z) - ProcessPainter: Learn Painting Process from Sequence Data [27.9875429986135]
画家の絵画の過程は本質的に段階的に変化しており、異なる画家や様式によって大きく異なる。
従来のストロークベースのレンダリング手法は、画像をブラシストロークのシーケンスに分解するが、アーティストの真正なプロセスの複製には不十分である。
ProcessPainterは、最初は合成データに基づいて事前訓練され、その後、特定のアーティストの絵のシーケンスで微調整されるテキスト・ビデオ・モデルである。
論文 参考訳(メタデータ) (2024-06-10T07:18:41Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - Towards Interactive Image Inpainting via Sketch Refinement [13.34066589008464]
そこで本研究では,SketchRefinerと呼ばれる2段階画像のインペイント手法を提案する。
第1段階では,クロス相関損失関数を用いて,ユーザが提供するスケッチを堅牢に校正し,洗練する。
第2段階では,特徴空間の抽象的スケッチから情報的特徴を抽出し,着色過程を変調する。
論文 参考訳(メタデータ) (2023-06-01T07:15:54Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Face Identity Disentanglement via Latent Space Mapping [47.27253184341152]
本稿では,データ表現を最小限に抑えながら,不整合な方法で表現する方法を学習する手法を提案する。
我々の重要な洞察は、StyleGANのような先行訓練済みの未条件画像生成装置を利用することで、アンタングル化と合成のプロセスを切り離すことである。
提案手法は,既存の手法を超越して,他の顔属性と同一性を切り離すことに成功した。
論文 参考訳(メタデータ) (2020-05-15T18:24:49Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。