論文の概要: Generative Adversarial Networks for Image and Video Synthesis:
Algorithms and Applications
- arxiv url: http://arxiv.org/abs/2008.02793v2
- Date: Mon, 30 Nov 2020 18:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 07:28:55.408509
- Title: Generative Adversarial Networks for Image and Video Synthesis:
Algorithms and Applications
- Title(参考訳): 画像・映像合成のための生成型adversarial network:アルゴリズムと応用
- Authors: Ming-Yu Liu, Xun Huang, Jiahui Yu, Ting-Chun Wang, Arun Mallya
- Abstract要約: GAN(Generative Adversarial Network)フレームワークは、様々な画像およびビデオ合成タスクのための強力なツールとして登場した。
視覚合成のためのアルゴリズムと応用に特に焦点をあてたGANの概要を述べる。
- 参考スコア(独自算出の注目度): 46.86183957129848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generative adversarial network (GAN) framework has emerged as a powerful
tool for various image and video synthesis tasks, allowing the synthesis of
visual content in an unconditional or input-conditional manner. It has enabled
the generation of high-resolution photorealistic images and videos, a task that
was challenging or impossible with prior methods. It has also led to the
creation of many new applications in content creation. In this paper, we
provide an overview of GANs with a special focus on algorithms and applications
for visual synthesis. We cover several important techniques to stabilize GAN
training, which has a reputation for being notoriously difficult. We also
discuss its applications to image translation, image processing, video
synthesis, and neural rendering.
- Abstract(参考訳): GAN(Generative Adversarial Network)フレームワークは、様々な画像およびビデオ合成タスクのための強力なツールとして登場し、無条件または入力条件で視覚コンテンツを合成することができる。
従来の手法では難しい、あるいは不可能だった、高解像度のフォトリアリスティック画像とビデオの生成を可能にした。
また、コンテンツ作成における多くの新しいアプリケーションの作成にも繋がった。
本稿では,アルゴリズムと視覚合成への応用に焦点をあてたGANの概要について述べる。
我々は,GANトレーニングを安定化させる重要なテクニックをいくつか紹介する。
また,画像翻訳,画像処理,映像合成,ニューラルレンダリングへの応用についても述べる。
関連論文リスト
- Make-Your-Video: Customized Video Generation Using Textual and
Structural Guidance [36.26032505627126]
近年のテキスト・ビデオ合成の進歩は、プロンプトのみを用いてこれを実現する可能性を明らかにしている。
本稿では,テキストをコンテキスト記述や動き構造として利用して,カスタマイズされた映像生成について検討する。
提案手法はMake-Your-Videoと呼ばれ,遅延拡散モデルを用いた共同条件映像生成を伴う。
論文 参考訳(メタデータ) (2023-06-01T17:43:27Z) - Learning Universal Policies via Text-Guided Video Generation [179.6347119101618]
人工知能の目標は、幅広いタスクを解決できるエージェントを構築することである。
テキスト誘導画像合成の最近の進歩は、複雑な新規画像を生成する印象的な能力を持つモデルを生み出している。
このようなツールがより汎用的なエージェントの構築に利用できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-01-31T21:28:13Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - A Survey on Adversarial Image Synthesis [0.0]
本稿では,画像合成に使用される手法の分類,テキスト・画像合成と画像・画像翻訳の異なるモデルについて検討し,いくつかの評価指標と,GANを用いた画像合成における今後の研究方向について考察する。
論文 参考訳(メタデータ) (2021-06-30T13:31:48Z) - A Good Image Generator Is What You Need for High-Resolution Video
Synthesis [73.82857768949651]
現代画像生成装置を用いて高解像度映像のレンダリングを行うフレームワークを提案する。
我々は,映像合成問題を,予め訓練された固定された画像生成装置の潜時空間における軌跡の発見とみなす。
本稿では,コンテンツや動きが絡み合っている所望の軌跡を検出するモーションジェネレータを提案する。
論文 参考訳(メタデータ) (2021-04-30T15:38:41Z) - TiVGAN: Text to Image to Video Generation with Step-by-Step Evolutionary
Generator [34.7504057664375]
本稿では、フレーム単位で進化し、最終的にフル長のビデオを生成する新しいトレーニングフレームワーク、Text-to-Image-to-Video Generative Adversarial Network (TiVGAN)を提案する。
ステップバイステップの学習プロセスは、トレーニングの安定化を支援し、条件付きテキスト記述に基づく高解像度ビデオの作成を可能にする。
論文 参考訳(メタデータ) (2020-09-04T06:33:08Z) - Efficient Neural Architecture for Text-to-Image Synthesis [6.166295570030645]
本研究では,1つのジェネレータと1つの判別器を用いた1段階の訓練により,効果的なニューラルネットワークが最先端の性能を達成することを示す。
本研究は,近年,新しいニューラルアーキテクチャの実験を行っていないテキスト・ツー・イメージ研究の新たな方向性を指摘する。
論文 参考訳(メタデータ) (2020-04-23T19:33:40Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。