論文の概要: AutoPoster: A Highly Automatic and Content-aware Design System for
Advertising Poster Generation
- arxiv url: http://arxiv.org/abs/2308.01095v1
- Date: Wed, 2 Aug 2023 11:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 13:11:12.763830
- Title: AutoPoster: A Highly Automatic and Content-aware Design System for
Advertising Poster Generation
- Title(参考訳): AutoPoster: ポスター生成を広告するための高自動・コンテンツ対応デザインシステム
- Authors: Jinpeng Lin, Min Zhou, Ye Ma, Yifan Gao, Chenxi Fei, Yangjian Chen,
Zhang Yu, Tiezheng Ge
- Abstract要約: 本稿では,広告ポスター作成のための高度に自動化されたコンテンツ認識システムであるAutoPosterを紹介する。
AutoPosterはプロダクトイメージとタイトルのみを入力として、異なるサイズのポスターを4つのキーステージを通じて自動的に生成する。
76k以上のポスターに対する視覚属性アノテーションを含む最初のポスター生成データセットを提案する。
- 参考スコア(独自算出の注目度): 6.192860301712574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advertising posters, a form of information presentation, combine visual and
linguistic modalities. Creating a poster involves multiple steps and
necessitates design experience and creativity. This paper introduces
AutoPoster, a highly automatic and content-aware system for generating
advertising posters. With only product images and titles as inputs, AutoPoster
can automatically produce posters of varying sizes through four key stages:
image cleaning and retargeting, layout generation, tagline generation, and
style attribute prediction. To ensure visual harmony of posters, two
content-aware models are incorporated for layout and tagline generation.
Moreover, we propose a novel multi-task Style Attribute Predictor (SAP) to
jointly predict visual style attributes. Meanwhile, to our knowledge, we
propose the first poster generation dataset that includes visual attribute
annotations for over 76k posters. Qualitative and quantitative outcomes from
user studies and experiments substantiate the efficacy of our system and the
aesthetic superiority of the generated posters compared to other poster
generation methods.
- Abstract(参考訳): 情報提示の形式である広告ポスターは、視覚と言語的モダリティを組み合わせる。
ポスターを作るには複数のステップが必要で、デザイン経験と創造性が必要です。
本稿では,広告ポスター作成のための高度自動・コンテンツ認識システムであるAutoPosterを紹介する。
プロダクトイメージとタイトルのみを入力として、autoposterはイメージクリーニングと再ターゲティング、レイアウト生成、タグライン生成、スタイル属性予測という4つの重要なステージを通じて、さまざまなサイズのポスターを自動的に生成することができる。
ポスターの視覚的調和を確保するため、レイアウトとタグライン生成のために2つのコンテンツ対応モデルが組み込まれている。
さらに,視覚的特徴を協調的に予測する新しいマルチタスクスタイル属性予測器(SAP)を提案する。
一方,我々は,76k以上のポスターに対して視覚的属性アノテーションを含む最初のポスター生成データセットを提案する。
ユーザ実験および実験から得られた質的・定量的な成果は,他のポスター生成手法と比較して,システムの有効性とポスターの美的優越性に及ぼしている。
関連論文リスト
- Automatic Layout Planning for Visually-Rich Documents with Instruction-Following Models [81.6240188672294]
グラフィックデザインでは、プロでないユーザは、限られたスキルとリソースのために視覚的に魅力的なレイアウトを作成するのに苦労することが多い。
レイアウト計画のための新しいマルチモーダル・インストラクション・フォロー・フレームワークを導入し、視覚的要素をカスタマイズしたレイアウトに簡単に配置できるようにする。
本手法は,非専門職の設計プロセスを単純化するだけでなく,数ショット GPT-4V モデルの性能を上回り,mIoU は Crello で 12% 向上する。
論文 参考訳(メタデータ) (2024-04-23T17:58:33Z) - PosterLlama: Bridging Design Ability of Langauge Model to Contents-Aware Layout Generation [6.855409699832414]
PosterLlamaは、視覚的およびテキスト的に一貫性のあるレイアウトを生成するように設計されたネットワークである。
評価の結果,PosterLlamaは,信頼性とコンテンツ対応レイアウトの生成において,既存の手法よりも優れていることがわかった。
これは、非条件のレイアウト生成、要素条件のレイアウト生成、レイアウトの完了など、非常に汎用性の高いユーザー操作ツールとして機能するなど、非パラレルな範囲の条件をサポートする。
論文 参考訳(メタデータ) (2024-04-01T08:46:35Z) - Planning and Rendering: Towards End-to-End Product Poster Generation [25.8596707369504]
我々はP&Rという新しい製品ポスター生成フレームワークを提案する。
計画段階では、製品やその他のビジュアルコンポーネントのレイアウトを生成するためのPlanNetを提案する。
レンダリング段階では、生成したレイアウトを考慮しつつ、製品の背景を生成するRenderNetを提案する。
提案手法は, PPG30k上での最先端の製品ポスター生成手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-14T11:11:50Z) - TextPainter: Multimodal Text Image Generation with Visual-harmony and
Text-comprehension for Poster Design [50.8682912032406]
本研究では,テキスト画像を生成するための新しいマルチモーダルアプローチであるTextPainterを紹介する。
TextPainterは、グローバルなローカル背景画像をスタイルのヒントとして取り、テキスト画像生成を視覚調和でガイドする。
約80Kのポスターに文レベルのバウンディングボックスとテキストの内容が付加されたPosterT80Kデータセットを構築した。
論文 参考訳(メタデータ) (2023-08-09T06:59:29Z) - ProSpect: Prompt Spectrum for Attribute-Aware Personalization of
Diffusion Models [77.03361270726944]
現在のパーソナライズ手法は、オブジェクトや概念をテキスト条件空間に反転させ、テキストから画像への拡散モデルのための新しい自然文を構成することができる。
本稿では,低周波情報から高周波画像を生成する拡散モデルのステップバイステップ生成プロセスを活用する新しい手法を提案する。
ProSpectは、画像誘導やテキスト駆動による材料、スタイル、レイアウトの操作など、パーソナライズされた属性認識画像生成アプリケーションに適用する。
論文 参考訳(メタデータ) (2023-05-25T16:32:01Z) - PosterLayout: A New Benchmark and Approach for Content-aware
Visual-Textual Presentation Layout [62.12447593298437]
コンテンツ対応視覚テキスト提示レイアウトは,所定のキャンバス上の空間空間を予め定義された要素にアレンジすることを目的としている。
本稿では,設計過程を模倣するためにレイアウトの要素を再編成する設計シーケンス形成(DSF)を提案する。
CNN-LSTMに基づく新しい条件生成対向ネットワーク(GAN)を提示し、適切なレイアウトを生成する。
論文 参考訳(メタデータ) (2023-03-28T12:48:36Z) - Unsupervised Domain Adaption with Pixel-level Discriminator for
Image-aware Layout Generation [24.625282719753915]
本稿では、画像コンテンツに条件付けされたGANモデルを用いて、広告ポスターのグラフィックレイアウトを生成することに焦点を当てる。
教師なしのドメイン技術と、PDA-GANと呼ばれる新しいピクセルレベルの識別器(PD)を組み合わせることで、画像の内容に応じてグラフィックレイアウトを生成する。
定量的および定性的な評価はPDA-GANが最先端の性能を達成できることを証明している。
論文 参考訳(メタデータ) (2023-03-25T06:50:22Z) - Text2Poster: Laying out Stylized Texts on Retrieved Images [32.466518932018175]
ポスター生成は広範囲のアプリケーションにとって重要なタスクであり、しばしば時間がかかり、手作業による編集や芸術的な経験を必要とする。
我々は,テキスト情報から視覚効果のあるポスターを自動的に生成する,textitText2Posterという新しいデータ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T04:06:23Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - The Style-Content Duality of Attractiveness: Learning to Write
Eye-Catching Headlines via Disentanglement [59.58372539336339]
目を引く見出しはクリック数を増やす最初のデバイスとして機能し、プロデューサーと視聴者の間の相互効果をもたらす。
そこで本稿では,魅力的なコンテンツを取り込む見出しを生成するdahg(disentanglement-based attractive headline generator)を提案する。
論文 参考訳(メタデータ) (2020-12-14T11:11:43Z) - Recommending Themes for Ad Creative Design via Visual-Linguistic
Representations [27.13752835161338]
広告クリエイティブストラテジストのためのテーマ(キーワード)推薦システムを提案する。
テーマレコメンデータは、視覚的質問応答(VQA)タスクの結果の集約に基づく。
クロスモーダル表現は分類精度とランク付け精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2020-01-20T18:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。