論文の概要: Text-to-Image Generation via Implicit Visual Guidance and Hypernetwork
- arxiv url: http://arxiv.org/abs/2208.08493v1
- Date: Wed, 17 Aug 2022 19:25:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:34:11.566116
- Title: Text-to-Image Generation via Implicit Visual Guidance and Hypernetwork
- Title(参考訳): 視覚誘導とハイパーネットワークによるテキスト・ツー・イメージ生成
- Authors: Xin Yuan, Zhe Lin, Jason Kuen, Jianming Zhang, John Collomosse
- Abstract要約: 我々は、暗黙的な視覚誘導損失と生成目的の組み合わせにより、追加の検索画像を受け入れるテキスト・画像生成のためのアプローチを開発する。
符号化層の重み更新を予測するために,新しいハイパーネットワーク変調型ビジュアルテキスト符号化方式を提案する。
実験の結果,既存のGANモデルよりも優れた検索ビジュアルデータを付加したモデルが導出された。
- 参考スコア(独自算出の注目度): 38.55086153299993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an approach for text-to-image generation that embraces additional
retrieval images, driven by a combination of implicit visual guidance loss and
generative objectives. Unlike most existing text-to-image generation methods
which merely take the text as input, our method dynamically feeds cross-modal
search results into a unified training stage, hence improving the quality,
controllability and diversity of generation results. We propose a novel
hypernetwork modulated visual-text encoding scheme to predict the weight update
of the encoding layer, enabling effective transfer from visual information
(e.g. layout, content) into the corresponding latent domain. Experimental
results show that our model guided with additional retrieval visual data
outperforms existing GAN-based models. On COCO dataset, we achieve better FID
of $9.13$ with up to $3.5 \times$ fewer generator parameters, compared with the
state-of-the-art method.
- Abstract(参考訳): 我々は,暗黙的な視覚誘導損失と生成目的の組み合わせにより,追加の検索画像を取り入れたテキスト対画像生成手法を開発した。
既存のテキスト対画像生成手法と異なり,提案手法は相互モーダル検索結果を統一学習段階に動的に送り込むため,生成結果の品質,制御性,多様性を向上させる。
本稿では,画像情報(レイアウト,コンテンツなど)から対応する潜在ドメインへの効果的な転送を実現するために,符号化層の重み付け更新を予測する新しいハイパーネットワーク変調ビジュアルテキスト符号化方式を提案する。
実験の結果,既存のGANモデルよりも優れた検索ビジュアルデータを付加したモデルが導出された。
COCOデータセットでは、最先端の手法と比較して、最大3.5 \times$より少ないジェネレータパラメータで9.13ドルのFIDを達成しています。
関連論文リスト
- Weak Supervision Dynamic KL-Weighted Diffusion Models Guided by Large Language Models [0.0]
本稿では,大言語モデルと拡散モデルを組み合わせることで,テキスト・画像生成を改善する新しい手法を提案する。
提案手法は, 学習済みLLMから意味的理解を取り入れ, 生成過程の導出を行う。
本手法は,テキスト記述による画像の視覚的品質とアライメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-02T15:43:13Z) - Generating Multimodal Images with GAN: Integrating Text, Image, and Style [7.481665175881685]
GAN(Generative Adversarial Networks)に基づくマルチモーダル画像生成手法を提案する。
この方法は、テキストエンコーダ、画像特徴抽出器、スタイル統合モジュールの設計を含む。
実験結果から,提案手法は複数の公開データセットにまたがって,高い明瞭度と一貫性を有する画像を生成することがわかった。
論文 参考訳(メタデータ) (2025-01-04T02:51:28Z) - Dataset Augmentation by Mixing Visual Concepts [3.5420134832331334]
本稿では,事前学習した拡散モデルの微調整によるデータセット拡張手法を提案する。
我々は、拡散モデルに実際の画像と新しいテキスト埋め込みを条件付けすることで適応する。
提案手法は,ベンチマーク分類タスクにおける最先端の強化手法より優れている。
論文 参考訳(メタデータ) (2024-12-19T19:42:22Z) - Generating Images with Multimodal Language Models [78.6660334861137]
本稿では,凍結したテキストのみの大規模言語モデルを,事前学習した画像エンコーダとデコーダモデルで融合する手法を提案する。
本モデルでは,画像検索,新しい画像生成,マルチモーダル対話など,多モーダルな機能群を示す。
論文 参考訳(メタデータ) (2023-05-26T19:22:03Z) - Paired Cross-Modal Data Augmentation for Fine-Grained Image-to-Text
Retrieval [142.047662926209]
本稿では,StyleGAN2モデルの隠れセマンティック情報を明らかにすることによって,ペアデータ拡張のための新しいフレームワークを提案する。
ランダムなトークン置換によって拡張テキストを生成し、拡張テキストを潜在空間アライメントモジュールに渡す。
我々は,2つのパブリックなクロスモーダル検索データセットに対する拡張データアプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-07-29T01:21:54Z) - Cycle-Consistent Inverse GAN for Text-to-Image Synthesis [101.97397967958722]
本稿では,テキスト・ツー・イメージ・ジェネレーションとテキスト・ガイドによる画像操作を行うために,Cycle-Consistent Inverse GANの統一フレームワークを提案する。
我々は、GANの反転モデルを学び、画像をGANの潜在空間に変換し、各画像の反転潜在符号を得る。
テキスト誘導最適化モジュールでは、反転潜在符号を最適化することにより、所望のセマンティック属性を持つ画像を生成する。
論文 参考訳(メタデータ) (2021-08-03T08:38:16Z) - Towards Open-World Text-Guided Face Image Generation and Manipulation [52.83401421019309]
顔画像生成と操作の両方に統一的なフレームワークを提案する。
本手法は,画像とテキストの両方を含むオープンワールドシナリオをサポートし,再トレーニングや微調整,後処理は行わない。
論文 参考訳(メタデータ) (2021-04-18T16:56:07Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。