論文の概要: Generative Adversarial Network Applications in Creating a Meta-Universe
- arxiv url: http://arxiv.org/abs/2201.09152v1
- Date: Sun, 23 Jan 2022 00:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:25:46.917225
- Title: Generative Adversarial Network Applications in Creating a Meta-Universe
- Title(参考訳): メタユニバース作成における生成的逆ネットワーク応用
- Authors: Soheyla Amirian, Thiab R. Taha, Khaled Rasheed, Hamid R. Arabnia
- Abstract要約: Generative Adversarial Networks (GAN) は、多くの重要かつ新しいアプリケーションで使用される機械学習手法である。
本稿では,GANを用いて人工世界を創出する方法について論じる。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) are machine learning methods that are
used in many important and novel applications. For example, in imaging science,
GANs are effectively utilized in generating image datasets, photographs of
human faces, image and video captioning, image-to-image translation,
text-to-image translation, video prediction, and 3D object generation to name a
few. In this paper, we discuss how GANs can be used to create an artificial
world. More specifically, we discuss how GANs help to describe an image
utilizing image/video captioning methods and how to translate the image to a
new image using image-to-image translation frameworks in a theme we desire. We
articulate how GANs impact creating a customized world.
- Abstract(参考訳): Generative Adversarial Networks (GAN) は、多くの重要かつ新しいアプリケーションで使用される機械学習手法である。
例えば、画像科学では、ganは画像データセット、人間の顔の写真、画像とビデオのキャプション、画像から画像への翻訳、テキストから画像への翻訳、ビデオの予測、3dオブジェクトの生成に効果的に利用されている。
本稿では,GANを用いて人工世界を創出する方法について論じる。
より具体的には、画像/映像キャプション手法を用いた画像の表現にGANがどう役立つか、画像から画像への変換フレームワークを用いた新たな画像への変換方法を、我々が望むテーマで述べる。
我々は、GANがいかにカスタマイズされた世界を生み出すかを明確にする。
関連論文リスト
- PixWizard: Versatile Image-to-Image Visual Assistant with Open-Language Instructions [66.92809850624118]
PixWizardは、画像生成、操作、翻訳を自由言語命令に基づいて行うために設計されたイメージ・ツー・イメージのビジュアルアシスタントである。
我々は、様々な視覚タスクを統一された画像テキスト・画像生成フレームワークに取り組み、Omni Pixel-to-Pixel Instruction-Tuningデータセットをキュレートする。
我々の実験は、PixWizardが様々な解像度の画像に対して印象的な生成能力と理解能力を示すだけでなく、目に見えないタスクや人間の指示で有望な一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-23T17:59:46Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Learning to Imagine: Visually-Augmented Natural Language Generation [73.65760028876943]
本稿では,事前学習型言語モデル(PLM)を視覚的に拡張した自然言語gEnerationのために学習する手法を提案する。
拡散モデルを用いて、入力テキストに条件付き高品質な画像を合成する。
段落全体に対して1つの画像のみを生成するのではなく、各文に対して合成を行う。
論文 参考訳(メタデータ) (2023-05-26T13:59:45Z) - Plug-and-Play Diffusion Features for Text-Driven Image-to-Image
Translation [10.39028769374367]
本稿では,画像間翻訳の領域にテキスト・ツー・イメージ合成を取り入れた新しいフレームワークを提案する。
本手法は,事前学習したテキスト・画像拡散モデルのパワーを利用して,対象のテキストに適合する新たな画像を生成する。
論文 参考訳(メタデータ) (2022-11-22T20:39:18Z) - Language-Guided Face Animation by Recurrent StyleGAN-based Generator [87.56260982475564]
本研究では,静的顔画像のアニメーション化を目的とした,言語指導型顔画像の新しいタスクについて検討する。
本稿では,言語から一連の意味情報と動作情報を抽出し,学習済みのStyleGANに視覚情報と共に供給し,高品質なフレームを生成するための繰り返し動作生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-11T02:57:30Z) - An Image is Worth One Word: Personalizing Text-to-Image Generation using
Textual Inversion [60.05823240540769]
テキスト・ツー・イメージモデルは、自然言語による創造をガイドする前例のない自由を提供する。
ここでは、そのような創造的な自由を可能にするシンプルなアプローチを提示します。
一つの単語の埋め込みが、ユニークで多様な概念を捉えるのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-02T17:50:36Z) - MontageGAN: Generation and Assembly of Multiple Components by GANs [11.117357750374035]
我々は,多層画像を生成するための生成Adversarial NetworksフレームワークであるMontageGANを提案する。
提案手法は,局所的なGANとグローバルなGANからなる2段階のアプローチを用いた。
論文 参考訳(メタデータ) (2022-05-31T07:34:19Z) - Interpreting Generative Adversarial Networks for Interactive Image
Generation [36.539339220652046]
この章では、深層生成モデルの解釈に関する最近の研究の概要を紹介する。
学習表現に現れる人間の理解可能な概念をどのように識別し、インタラクティブな画像生成と編集に利用できるかを確認する。
論文 参考訳(メタデータ) (2021-08-10T19:42:20Z) - Cycle-Consistent Inverse GAN for Text-to-Image Synthesis [101.97397967958722]
本稿では,テキスト・ツー・イメージ・ジェネレーションとテキスト・ガイドによる画像操作を行うために,Cycle-Consistent Inverse GANの統一フレームワークを提案する。
我々は、GANの反転モデルを学び、画像をGANの潜在空間に変換し、各画像の反転潜在符号を得る。
テキスト誘導最適化モジュールでは、反転潜在符号を最適化することにより、所望のセマンティック属性を持つ画像を生成する。
論文 参考訳(メタデータ) (2021-08-03T08:38:16Z) - A Framework and Dataset for Abstract Art Generation via CalligraphyGAN [0.0]
本研究では,コンディショナル・ジェネレーティブ・アドバイザリ・ネットワークと文脈ニューラル言語モデルに基づく創造的枠組みを提示し,抽象アートワークを生成する。
私たちの作品は中国書道に触発され、字そのものが美的絵画である独特の視覚芸術形式である。
論文 参考訳(メタデータ) (2020-12-02T16:24:20Z) - Text as Neural Operator: Image Manipulation by Text Instruction [68.53181621741632]
本稿では、複雑なテキスト命令を用いて複数のオブジェクトで画像を編集し、オブジェクトの追加、削除、変更を可能にする設定について検討する。
タスクの入力は、(1)参照画像を含むマルチモーダルであり、(2)所望の修正を記述した自然言語の命令である。
提案モデルは,最近の3つの公開データセットの強いベースラインに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-08-11T07:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。