論文の概要: Learning Aesthetic Layouts via Visual Guidance
- arxiv url: http://arxiv.org/abs/2107.06262v1
- Date: Tue, 13 Jul 2021 17:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:30:10.571629
- Title: Learning Aesthetic Layouts via Visual Guidance
- Title(参考訳): 視覚指導による美的レイアウトの学習
- Authors: Qingyuan Zheng, Zhuoru Li, Adam Bargteil
- Abstract要約: 視覚的指導のための計算手法を探求し, 楽観的アートとグラフィックデザインの創出を支援する。
私たちは、アートの傑作のデータセットを収集し、最先端のビジョンモデルで視覚的な修正をラベル付けしました。
美術品の視覚的指導テンプレートを教師なしの学習でクラスタ化した。
視覚的指導の原理を高次元モデルに学習・統合し,図形要素の特徴に照らし合わせることができることを示す。
- 参考スコア(独自算出の注目度): 7.992550355579791
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We explore computational approaches for visual guidance to aid in creating
aesthetically pleasing art and graphic design. Our work complements and builds
on previous work that developed models for how humans look at images. Our
approach comprises three steps. First, we collected a dataset of art
masterpieces and labeled the visual fixations with state-of-art vision models.
Second, we clustered the visual guidance templates of the art masterpieces with
unsupervised learning. Third, we developed a pipeline using generative
adversarial networks to learn the principles of visual guidance and that can
produce aesthetically pleasing layouts. We show that the aesthetic visual
guidance principles can be learned and integrated into a high-dimensional model
and can be queried by the features of graphic elements. We evaluate our
approach by generating layouts on various drawings and graphic designs.
Moreover, our model considers the color and structure of graphic elements when
generating layouts. Consequently, we believe our tool, which generates multiple
aesthetic layout options in seconds, can help artists create beautiful art and
graphic designs.
- Abstract(参考訳): 視覚指導のための計算手法を探求し,美的な芸術とグラフィックデザインの創出を支援する。
我々の研究は、人間が画像を見るためのモデルを開発した以前の研究を補完し、構築しています。
私たちのアプローチは3つのステップからなる。
まず、アートの傑作のデータセットを収集し、最先端のビジョンモデルで視覚修正をラベル付けしました。
第2に,教師なし学習による芸術作品の視覚指導テンプレートのクラスタリングを行った。
第3に,視覚誘導の原理を学習するために生成的対向ネットワークを用いたパイプラインを開発し,美的なレイアウトを創出する。
視覚的指導の原理を高次元モデルに学習・統合し,図形要素の特徴に照らし合わせることができることを示す。
我々は,様々な図面やグラフィックデザインのレイアウトを生成できる手法を評価した。
さらに,レイアウト生成時の図形要素の色や構造についても考察する。
その結果,複数の美的レイアウトを数秒で生成するツールによって,アーティストが美しいアートやグラフィックデザインを作成できると考えている。
関連論文リスト
- Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - GalleryGPT: Analyzing Paintings with Large Multimodal Models [64.98398357569765]
美術品の分析は、個人の審美性を豊かにし、批判的思考能力を促進することができる芸術鑑賞のための重要かつ基本的な技術である。
アートワークを自動解析する以前の作業は、主に分類、検索、その他の単純なタスクに焦点を当てており、AIの目標とは程遠い。
LLaVAアーキテクチャに基づいて微調整されたGalleryGPTと呼ばれる,絵画解析のための優れた大規模マルチモーダルモデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T11:52:56Z) - BlenderAlchemy: Editing 3D Graphics with Vision-Language Models [4.852796482609347]
ビジョンベースの編集生成器と状態評価器が協力して、目標を達成するための正しいアクションのシーケンスを見つける。
人間のデザインプロセスにおける視覚的想像力の役割に触発されて、視覚言語モデルの視覚的推論能力を「想像された」参照画像で補う。
論文 参考訳(メタデータ) (2024-04-26T19:37:13Z) - Automatic Layout Planning for Visually-Rich Documents with Instruction-Following Models [81.6240188672294]
グラフィックデザインでは、プロでないユーザは、限られたスキルとリソースのために視覚的に魅力的なレイアウトを作成するのに苦労することが多い。
レイアウト計画のための新しいマルチモーダル・インストラクション・フォロー・フレームワークを導入し、視覚的要素をカスタマイズしたレイアウトに簡単に配置できるようにする。
本手法は,非専門職の設計プロセスを単純化するだけでなく,数ショット GPT-4V モデルの性能を上回り,mIoU は Crello で 12% 向上する。
論文 参考訳(メタデータ) (2024-04-23T17:58:33Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Composition-aware Graphic Layout GAN for Visual-textual Presentation
Designs [24.29890251913182]
与えられた画像に対して高品質な視覚テキスト提示設計を行う際のグラフィックレイアウト生成問題について検討する。
入力画像のグローバルおよび空間的視覚的内容に基づいてレイアウトを合成するために,合成対応グラフィックレイアウトGAN (CGL-GAN) と呼ばれる深層生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-30T16:42:13Z) - Detecting Visual Design Principles in Art and Architecture through Deep
Convolutional Neural Networks [0.0]
本研究の目的は、異なるドメインに対する設計原則を認識し、分類するニューラルネットワークモデルである。
提案したモデルは,その基盤となる共有パターンをキャプチャして,原設計の無数の知識から学習する。
論文 参考訳(メタデータ) (2021-08-09T14:00:17Z) - SketchEmbedNet: Learning Novel Concepts by Imitating Drawings [125.45799722437478]
モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
論文 参考訳(メタデータ) (2020-08-27T16:43:28Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。