論文の概要: Interleaving GANs with knowledge graphs to support design creativity for
book covers
- arxiv url: http://arxiv.org/abs/2308.01626v1
- Date: Thu, 3 Aug 2023 08:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:36:01.551450
- Title: Interleaving GANs with knowledge graphs to support design creativity for
book covers
- Title(参考訳): ブックカバーのデザインクリエイティビティを支援する知識グラフを用いたGANのインターリービング
- Authors: Alexandru Motogna, Adrian Groza
- Abstract要約: 本書のカバードメインにGAN(Generative Adversarial Networks)を適用する。
我々は、GANを知識グラフとインターリーブして入力タイトルを変更し、任意のタイトルに対して複数のオプションを得る。
最後に、トレーニング期間中に得られた判別器を用いて、新しいタイトルで生成された最良の画像を選択する。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An attractive book cover is important for the success of a book. In this
paper, we apply Generative Adversarial Networks (GANs) to the book covers
domain, using different methods for training in order to obtain better
generated images. We interleave GANs with knowledge graphs to alter the input
title to obtain multiple possible options for any given title, which are then
used as an augmented input to the generator. Finally, we use the discriminator
obtained during the training phase to select the best images generated with new
titles. Our method performed better at generating book covers than previous
attempts, and the knowledge graph gives better options to the book author or
editor compared to using GANs alone.
- Abstract(参考訳): 魅力的な本の表紙は、本の成功のために重要です。
本稿では,本書のカバー領域にgans(generative adversarial network)を適用する。
ganを知識グラフにインターリーブし、入力タイトルを変更し、任意のタイトルに対して複数のオプションを取得し、それをジェネレータへの追加入力として使用します。
最後に、トレーニング期間中に得られた判別器を用いて、新しいタイトルで生成された最良の画像を選択する。
本手法は,従来の試みよりも書籍の表紙作成に優れており,知識グラフはgan単独よりも著者や編集者に優れた選択肢を与えている。
関連論文リスト
- Neural Cover Selection for Image Steganography [7.7961128660417325]
ステガノグラフィーでは、カバー選択と呼ばれる最適なカバー画像を選択することは、効果的なメッセージ隠蔽のために重要である。
近年のジェネレーティブモデルの発展に触発されて,新しいカバー選択フレームワークを導入する。
提案手法は, メッセージ回復と画像品質において大きな利点を示す。
論文 参考訳(メタデータ) (2024-10-23T18:32:34Z) - Conditional Score Guidance for Text-Driven Image-to-Image Translation [52.73564644268749]
本稿では,事前訓練されたテキスト・画像拡散モデルに基づく,テキスト駆動型画像・画像変換のための新しいアルゴリズムを提案する。
本手法は,ソース画像の関心領域を選択的に編集することで,対象画像を生成することを目的とする。
論文 参考訳(メタデータ) (2023-05-29T10:48:34Z) - Book Cover Synthesis from the Summary [0.0]
本書の要約と表紙との間には関連性があることから,人工知能を用いて書籍の表紙を作成する方法について検討する。
既存の書籍の要約やそのカバーイメージを多数含む英語書籍のデータセットを構築した。
本論文では,要約から書籍の表紙を生成するために,異なるテキスト・画像合成技術を適用し,その結果を示す。
論文 参考訳(メタデータ) (2022-11-03T20:43:40Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Towards Book Cover Design via Layout Graphs [18.028269880425455]
本稿では,手軽なレイアウトグラフに基づいて本のカバーを生成可能な生成ニューラルネットワークを提案する。
レイアウトグラフにはテキスト、自然なシーンオブジェクト、固い色空間などのオブジェクトが含まれている。
論文 参考訳(メタデータ) (2021-05-24T04:28:35Z) - Font Style that Fits an Image -- Font Generation Based on Image Context [7.646713951724013]
本論文では,書籍の表紙内のコンテキストに基づいて,書籍のタイトル画像を生成する手法を提案する。
本稿では,本表紙,目標位置マスク,所望の書籍タイトルを入力し,その表紙に適した文を出力するエンド・ツー・エンドニューラルネットワークを提案する。
提案手法は,定量的かつ定性的な結果によって,本文を効果的に生成できることを実証する。
論文 参考訳(メタデータ) (2021-05-19T01:53:04Z) - Directional GAN: A Novel Conditioning Strategy for Generative Networks [0.0]
与えられたセマンティック特性に基づいてコンディショニングされた画像の生成を可能にする、シンプルで斬新なコンディショニング戦略を提案する。
我々のアプローチは、潜在空間における関連する意味属性の方向ベクトルを用いて、潜在ベクトルを変更することに基づいている。
提案手法である Directional GAN を複数の公開データセットに適用し,平均精度86.4% で適用可能であることを示す。
論文 参考訳(メタデータ) (2021-05-12T15:02:41Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Graph Edit Distance Reward: Learning to Edit Scene Graph [69.39048809061714]
本研究では,これまで検討されていないユーザ指示に従ってシーングラフを編集する手法を提案する。
具体的には,テキストから得られるセマンティクスとしてシーングラフの編集を学習するために,グラフ編集距離再帰(Graph Edit Distance Reward)を提案する。
テキスト編集画像検索の文脈において,CSSおよびCRIRデータセットにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-08-15T04:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。