論文の概要: Learning to Synthesize Graphics Programs for Geometric Artworks
- arxiv url: http://arxiv.org/abs/2410.15768v1
- Date: Mon, 21 Oct 2024 08:28:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:36.500757
- Title: Learning to Synthesize Graphics Programs for Geometric Artworks
- Title(参考訳): 幾何学的アートワークのためのグラフィックプログラムの合成学習
- Authors: Qi Bing, Chaoyi Zhang, Weidong Cai,
- Abstract要約: 本稿では,一連の描画ツールを実行可能なプログラムとして扱うアプローチを提案する。
この方法は最終画像を得るための一連のステップを予測する。
プログラムシンセサイザーArt2Progは複雑な入力画像を包括的に理解できることを示す。
- 参考スコア(独自算出の注目度): 12.82009632507056
- License:
- Abstract: Creating and understanding art has long been a hallmark of human ability. When presented with finished digital artwork, professional graphic artists can intuitively deconstruct and replicate it using various drawing tools, such as the line tool, paint bucket, and layer features, including opacity and blending modes. While most recent research in this field has focused on art generation, proposing a range of methods, these often rely on the concept of artwork being represented as a final image. To bridge the gap between pixel-level results and the actual drawing process, we present an approach that treats a set of drawing tools as executable programs. This method predicts a sequence of steps to achieve the final image, allowing for understandable and resolution-independent reproductions under the usage of a set of drawing commands. Our experiments demonstrate that our program synthesizer, Art2Prog, can comprehensively understand complex input images and reproduce them using high-quality executable programs. The experimental results evidence the potential of machines to grasp higher-level information from images and generate compact program-level descriptions.
- Abstract(参考訳): 芸術の創造と理解は、長い間人間の能力の目印だった。
完成したデジタルアートワークを提示すると、プロのグラフィックアーティストは直感的にそれを分解し、ラインツールやペイントバケット、不透明度やブレンディングモードなどのレイヤー機能といった様々な描画ツールを使って複製することができる。
この分野における最近の研究は、様々な手法を提唱するアートジェネレーションに焦点を当てているが、これらは最終イメージとして表現されるアートアートの概念に依存していることが多い。
画素レベルの結果と実際の描画プロセスのギャップを埋めるため,一組の描画ツールを実行可能なプログラムとして扱うアプローチを提案する。
この方法は、最終的な画像を得るための一連のステップを予測し、一連の描画コマンドを用いて、理解可能で解像度に依存しない再生を可能にする。
プログラム合成器であるArt2Progは,複雑な入力画像を包括的に理解し,高品質な実行可能プログラムを用いて再現できることを実証した。
実験結果は、画像から高レベル情報を把握し、コンパクトなプログラムレベルの記述を生成するマシンの可能性を示している。
関連論文リスト
- PixWizard: Versatile Image-to-Image Visual Assistant with Open-Language Instructions [66.92809850624118]
PixWizardは、画像生成、操作、翻訳を自由言語命令に基づいて行うために設計されたイメージ・ツー・イメージのビジュアルアシスタントである。
我々は、様々な視覚タスクを統一された画像テキスト・画像生成フレームワークに取り組み、Omni Pixel-to-Pixel Instruction-Tuningデータセットをキュレートする。
我々の実験は、PixWizardが様々な解像度の画像に対して印象的な生成能力と理解能力を示すだけでなく、目に見えないタスクや人間の指示で有望な一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-23T17:59:46Z) - Alfie: Democratising RGBA Image Generation With No $$$ [33.334956022229846]
本稿では,事前学習した拡散変圧器モデルの推論時挙動を変化させ,RGBA図形の完全自動生成手法を提案する。
我々は、デザインプロジェクトや芸術シーンへのシームレスな統合のために、背景が容易に取り除かれるシャープな刈り取りを行なわずに、被験者全体の生成を強制する。
論文 参考訳(メタデータ) (2024-08-27T07:13:44Z) - ProcessPainter: Learn Painting Process from Sequence Data [27.9875429986135]
画家の絵画の過程は本質的に段階的に変化しており、異なる画家や様式によって大きく異なる。
従来のストロークベースのレンダリング手法は、画像をブラシストロークのシーケンスに分解するが、アーティストの真正なプロセスの複製には不十分である。
ProcessPainterは、最初は合成データに基づいて事前訓練され、その後、特定のアーティストの絵のシーケンスで微調整されるテキスト・ビデオ・モデルである。
論文 参考訳(メタデータ) (2024-06-10T07:18:41Z) - Towards Interactive Image Inpainting via Sketch Refinement [13.34066589008464]
そこで本研究では,SketchRefinerと呼ばれる2段階画像のインペイント手法を提案する。
第1段階では,クロス相関損失関数を用いて,ユーザが提供するスケッチを堅牢に校正し,洗練する。
第2段階では,特徴空間の抽象的スケッチから情報的特徴を抽出し,着色過程を変調する。
論文 参考訳(メタデータ) (2023-06-01T07:15:54Z) - Semantic-aware Generation of Multi-view Portrait Drawings [16.854527555637063]
多視点の肖像画を合成するためのセマンティック・アウェア・ジェネレータ(SAGE)を提案する。
私たちのモチベーションは、顔のセマンティックラベルがビューに一貫性があり、描画技術と相関していることです。
SAGEは、既存の3D認識画像合成法と比較して、非常に優れた性能または高い競争性能を達成している。
論文 参考訳(メタデータ) (2023-05-04T07:48:27Z) - Procedural Image Programs for Representation Learning [62.557911005179946]
我々は,2万プログラムからなる大規模なデータセットを用いて,多様な合成画像を生成する訓練を提案する。
これらのプログラムは短いコードスニペットであり、変更が容易で、高速に実行することができる。
提案したデータセットは、教師付きおよび教師なしの表現学習の両方に使用することができ、実際の画像と手続き的に生成された画像との事前学習のギャップを38%削減する。
論文 参考訳(メタデータ) (2022-11-29T17:34:22Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Generative Art Using Neural Visual Grammars and Dual Encoders [25.100664361601112]
生成芸術を創出するための新しいアルゴリズムについて述べる。
ユーザーがテキスト文字列を入力することができ、この文字列に対する創造的な応答で画像が出力されます。
論文 参考訳(メタデータ) (2021-05-01T04:21:52Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。