論文の概要: Towards Book Cover Design via Layout Graphs
- arxiv url: http://arxiv.org/abs/2105.11088v1
- Date: Mon, 24 May 2021 04:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:12:30.185725
- Title: Towards Book Cover Design via Layout Graphs
- Title(参考訳): レイアウトグラフによるブックカバーデザインに向けて
- Authors: Wensheng Zhang, Yan Zheng, Taiga Miyazono, Seiichi Uchida, Brian Kenji
Iwana
- Abstract要約: 本稿では,手軽なレイアウトグラフに基づいて本のカバーを生成可能な生成ニューラルネットワークを提案する。
レイアウトグラフにはテキスト、自然なシーンオブジェクト、固い色空間などのオブジェクトが含まれている。
- 参考スコア(独自算出の注目度): 18.028269880425455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Book covers are intentionally designed and provide an introduction to a book.
However, they typically require professional skills to design and produce the
cover images. Thus, we propose a generative neural network that can produce
book covers based on an easy-to-use layout graph. The layout graph contains
objects such as text, natural scene objects, and solid color spaces. This
layout graph is embedded using a graph convolutional neural network and then
used with a mask proposal generator and a bounding-box generator and filled
using an object proposal generator. Next, the objects are compiled into a
single image and the entire network is trained using a combination of
adversarial training, perceptual training, and reconstruction. Finally, a Style
Retention Network (SRNet) is used to transfer the learned font style onto the
desired text. Using the proposed method allows for easily controlled and unique
book covers.
- Abstract(参考訳): 本カバーは故意に設計され、本の導入を提供する。
しかし、通常、カバー画像の設計と作成には専門的なスキルが必要となる。
そこで本研究では,使い易いレイアウトグラフに基づいて書籍の表紙を作成できる生成ニューラルネットワークを提案する。
レイアウトグラフには、テキスト、自然シーンオブジェクト、固体カラースペースなどのオブジェクトが含まれている。
このレイアウトグラフは、グラフ畳み込みニューラルネットワークを使用して埋め込み、マスク提案生成器とバウンディングボックス生成器で使用し、オブジェクト提案生成器で満たされる。
次に、オブジェクトを1つのイメージにコンパイルし、敵対的トレーニング、知覚的トレーニング、再構築の組み合わせを用いてネットワーク全体をトレーニングする。
最後に、スタイル保持ネットワーク(srnet)を使用して学習したフォントスタイルを所望のテキストに転送する。
提案手法を用いることで, コントロールが容易で, 独特な書籍カバーが可能となる。
関連論文リスト
- Interleaving GANs with knowledge graphs to support design creativity for
book covers [77.34726150561087]
本書のカバードメインにGAN(Generative Adversarial Networks)を適用する。
我々は、GANを知識グラフとインターリーブして入力タイトルを変更し、任意のタイトルに対して複数のオプションを得る。
最後に、トレーニング期間中に得られた判別器を用いて、新しいタイトルで生成された最良の画像を選択する。
論文 参考訳(メタデータ) (2023-08-03T08:56:56Z) - Break-A-Scene: Extracting Multiple Concepts from a Single Image [80.47666266017207]
テキストシーン分解の課題を紹介する。
本稿では,対象概念の存在を示すマスクを用いた入力画像の拡張を提案する。
次に、新しい2段階のカスタマイズプロセスを示す。
論文 参考訳(メタデータ) (2023-05-25T17:59:04Z) - PosterLayout: A New Benchmark and Approach for Content-aware
Visual-Textual Presentation Layout [62.12447593298437]
コンテンツ対応視覚テキスト提示レイアウトは,所定のキャンバス上の空間空間を予め定義された要素にアレンジすることを目的としている。
本稿では,設計過程を模倣するためにレイアウトの要素を再編成する設計シーケンス形成(DSF)を提案する。
CNN-LSTMに基づく新しい条件生成対向ネットワーク(GAN)を提示し、適切なレイアウトを生成する。
論文 参考訳(メタデータ) (2023-03-28T12:48:36Z) - SmartBrush: Text and Shape Guided Object Inpainting with Diffusion Model [27.91089554671927]
ジェネリック・イメージ・インペイントは、周辺情報を借りて、腐敗したイメージを完成させることを目的としている。
対照的に、マルチモーダル・インパインティングは、インパインされたコンテンツに対してより柔軟で有用なコントロールを提供する。
テキストと形状誘導の両方を用いて、オブジェクトで欠落した領域を完了するための拡散モデルSmartBrushを提案する。
論文 参考訳(メタデータ) (2022-12-09T18:36:13Z) - Font Style that Fits an Image -- Font Generation Based on Image Context [7.646713951724013]
本論文では,書籍の表紙内のコンテキストに基づいて,書籍のタイトル画像を生成する手法を提案する。
本稿では,本表紙,目標位置マスク,所望の書籍タイトルを入力し,その表紙に適した文を出力するエンド・ツー・エンドニューラルネットワークを提案する。
提案手法は,定量的かつ定性的な結果によって,本文を効果的に生成できることを実証する。
論文 参考訳(メタデータ) (2021-05-19T01:53:04Z) - MarioNette: Self-Supervised Sprite Learning [67.51317291061115]
反復要素のグラフィカルな非絡み合い表現を得るための深層学習手法を提案する。
テクスチャパッチの辞書を共同で学習し,それらをキャンバスに配置するネットワークを訓練することにより,スプライトベースのコンテンツをスパースで一貫性があり,解釈可能な表現に効果的に分解する。
論文 参考訳(メタデータ) (2021-04-29T17:59:01Z) - Representation Learning of Reconstructed Graphs Using Random Walk Graph
Convolutional Network [12.008472517000651]
グラフのノード特異的なメソスコピック構造を得るためにランダムウォークを利用する新しいフレームワークであるwGCNを提案する。
高次局所構造情報を組み合わせることで、ネットワークの可能性をより効率的に探究できると信じている。
論文 参考訳(メタデータ) (2021-01-02T10:31:14Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z) - Learning to map source code to software vulnerability using
code-as-a-graph [67.62847721118142]
セキュリティの観点からソースコードのニュアンス学習におけるグラフニューラルネットワークの適用性について検討する。
我々は,既存のコード・アズ・フォトや線形シーケンスの符号化手法よりも,脆弱性検出に有効なコード・アズ・グラフの符号化法を示す。
論文 参考訳(メタデータ) (2020-06-15T16:05:27Z) - Learning Layout and Style Reconfigurable GANs for Controllable Image
Synthesis [12.449076001538552]
本稿では,空間的レイアウトからフォトリアリスティックなイメージを合成できる生成モデルを学習するための,最近の課題であるレイアウト・トゥ・イメージ(レイアウト・トゥ・イメージ)に焦点を当てる。
画像レベルでのスタイル制御は、バニラGANと同じであり、オブジェクトマスクレベルでのスタイル制御は、新しい特徴正規化方式によって実現される。
実験では,COCO-StuffデータセットとVisual Genomeデータセットを用いて,最先端の性能の検証を行った。
論文 参考訳(メタデータ) (2020-03-25T18:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。