論文の概要: Learning Aesthetic Layouts via Visual Guidance
- arxiv url: http://arxiv.org/abs/2107.06262v1
- Date: Tue, 13 Jul 2021 17:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:30:10.571629
- Title: Learning Aesthetic Layouts via Visual Guidance
- Title(参考訳): 視覚指導による美的レイアウトの学習
- Authors: Qingyuan Zheng, Zhuoru Li, Adam Bargteil
- Abstract要約: 視覚的指導のための計算手法を探求し, 楽観的アートとグラフィックデザインの創出を支援する。
私たちは、アートの傑作のデータセットを収集し、最先端のビジョンモデルで視覚的な修正をラベル付けしました。
美術品の視覚的指導テンプレートを教師なしの学習でクラスタ化した。
視覚的指導の原理を高次元モデルに学習・統合し,図形要素の特徴に照らし合わせることができることを示す。
- 参考スコア(独自算出の注目度): 7.992550355579791
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We explore computational approaches for visual guidance to aid in creating
aesthetically pleasing art and graphic design. Our work complements and builds
on previous work that developed models for how humans look at images. Our
approach comprises three steps. First, we collected a dataset of art
masterpieces and labeled the visual fixations with state-of-art vision models.
Second, we clustered the visual guidance templates of the art masterpieces with
unsupervised learning. Third, we developed a pipeline using generative
adversarial networks to learn the principles of visual guidance and that can
produce aesthetically pleasing layouts. We show that the aesthetic visual
guidance principles can be learned and integrated into a high-dimensional model
and can be queried by the features of graphic elements. We evaluate our
approach by generating layouts on various drawings and graphic designs.
Moreover, our model considers the color and structure of graphic elements when
generating layouts. Consequently, we believe our tool, which generates multiple
aesthetic layout options in seconds, can help artists create beautiful art and
graphic designs.
- Abstract(参考訳): 視覚指導のための計算手法を探求し,美的な芸術とグラフィックデザインの創出を支援する。
我々の研究は、人間が画像を見るためのモデルを開発した以前の研究を補完し、構築しています。
私たちのアプローチは3つのステップからなる。
まず、アートの傑作のデータセットを収集し、最先端のビジョンモデルで視覚修正をラベル付けしました。
第2に,教師なし学習による芸術作品の視覚指導テンプレートのクラスタリングを行った。
第3に,視覚誘導の原理を学習するために生成的対向ネットワークを用いたパイプラインを開発し,美的なレイアウトを創出する。
視覚的指導の原理を高次元モデルに学習・統合し,図形要素の特徴に照らし合わせることができることを示す。
我々は,様々な図面やグラフィックデザインのレイアウトを生成できる手法を評価した。
さらに,レイアウト生成時の図形要素の色や構造についても考察する。
その結果,複数の美的レイアウトを数秒で生成するツールによって,アーティストが美しいアートやグラフィックデザインを作成できると考えている。
関連論文リスト
- An Image-based Typology for Visualization [24.906010459057125]
本稿では,画像からの視覚表現の質的解析結果について述べる。
定義群を10種類に分類した。
我々は、6,833枚のタグ付き画像のデータセットと、ラベル付き画像の大規模な集合を探索および分析するために使用できるオンラインツールを提供する。
論文 参考訳(メタデータ) (2024-03-07T04:33:42Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Composition-aware Graphic Layout GAN for Visual-textual Presentation
Designs [24.29890251913182]
与えられた画像に対して高品質な視覚テキスト提示設計を行う際のグラフィックレイアウト生成問題について検討する。
入力画像のグローバルおよび空間的視覚的内容に基づいてレイアウトを合成するために,合成対応グラフィックレイアウトGAN (CGL-GAN) と呼ばれる深層生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-30T16:42:13Z) - Infographics Wizard: Flexible Infographics Authoring and Design
Exploration [48.93421725740813]
インフォグラフィック(英: Infographics)は、人間の知覚の特定の設計原則に従って情報を表現する美的な視覚表現である。
汎用構造およびフローベースインフォグラフィック設計生成のための半自動インフォグラフィックフレームワークを提案する。
初期設計者に対しては,設計入力を必要とせずに,ユーザが提供するテキストのインフォグラフィックデザインを自動的に作成・ランク付けする。
この作業では、個別の視覚グループ(VG)設計データセット(SVG)と、セグメント化されたVGを備えた1kの完全なインフォグラフィックイメージデータセットもコントリビュートする。
論文 参考訳(メタデータ) (2022-04-21T06:26:06Z) - Detecting Visual Design Principles in Art and Architecture through Deep
Convolutional Neural Networks [0.0]
本研究の目的は、異なるドメインに対する設計原則を認識し、分類するニューラルネットワークモデルである。
提案したモデルは,その基盤となる共有パターンをキャプチャして,原設計の無数の知識から学習する。
論文 参考訳(メタデータ) (2021-08-09T14:00:17Z) - Learning Portrait Style Representations [34.59633886057044]
高レベル特性を取り入れたニューラルネットワークアーキテクチャによって学習されたスタイル表現について検討する。
美術史家によって注釈付けされた三重奏曲をスタイル類似性の監督として取り入れることで,学習スタイルの特徴の変化を見いだす。
また,計算解析用に用意された肖像画の大規模データセットを初めて提示する。
論文 参考訳(メタデータ) (2020-12-08T01:36:45Z) - SketchEmbedNet: Learning Novel Concepts by Imitating Drawings [125.45799722437478]
モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
論文 参考訳(メタデータ) (2020-08-27T16:43:28Z) - Modeling Artistic Workflows for Image Generation and Editing [83.43047077223947]
与えられた芸術的ワークフローに従う生成モデルを提案する。
既存の芸術作品の多段画像編集だけでなく、多段画像生成も可能である。
論文 参考訳(メタデータ) (2020-07-14T17:54:26Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。