論文の概要: Video Generative Adversarial Networks: A Review
- arxiv url: http://arxiv.org/abs/2011.02250v1
- Date: Wed, 4 Nov 2020 12:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 21:57:09.481513
- Title: Video Generative Adversarial Networks: A Review
- Title(参考訳): video generative adversarial networks - レビュー
- Authors: Nuha Aldausari, Arcot Sowmya, Nadine Marcus, Gelareh Mohammadi
- Abstract要約: この論文は、最先端のビデオGANsモデルをレビューする最初の調査論文の1つである。
論文はまず、GANsレビュー論文を一般的なGANsレビュー論文、画像GANsレビュー論文、および異常検出、医療画像、サイバーセキュリティなどの特別な分野GANsレビュー論文に分類した。
論文は、現在のビデオ GAN モデルの主な課題と限界を強調して締めくくった。
- 参考スコア(独自算出の注目度): 10.667165962654996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing interest in the content creation field in multiple
sectors such as media, education, and entertainment, there is an increasing
trend in the papers that uses AI algorithms to generate content such as images,
videos, audio, and text. Generative Adversarial Networks (GANs) in one of the
promising models that synthesizes data samples that are similar to real data
samples. While the variations of GANs models, in general, have been covered to
some extent in several survey papers, to the best of our knowledge, this is
among the first survey papers that reviews the state-of-the-art video GANs
models. This paper first categorized GANs review papers into general GANs
review papers, image GANs review papers, and special field GANs review papers
such as anomaly detection, medical imaging, or cybersecurity. The paper then
summarizes the main improvements in GANs frameworks that are not initially
developed for the video domain but have been adopted in multiple video GANs
variations. Then, a comprehensive review of video GANs models is provided under
two main divisions according to the presence or non-presence of a condition.
The conditional models then further grouped according to the type of condition
into audio, text, video, and image. The paper is concluded by highlighting the
main challenges and limitations of the current video GANs models. A
comprehensive list of datasets, applied loss functions, and evaluation metrics
is provided in the supplementary material.
- Abstract(参考訳): メディア、教育、エンターテイメントなど、複数の分野におけるコンテンツ制作分野への関心が高まり、画像、ビデオ、オーディオ、テキストなどのコンテンツを生成するためにAIアルゴリズムを使用する論文が増えている。
Generative Adversarial Networks (GAN)は、実際のデータサンプルに似たデータサンプルを合成する有望なモデルの1つである。
GANsモデルのバリエーションは、いくつかの調査論文である程度カバーされているが、私たちの知る限りでは、これは最先端のビデオGANsモデルをレビューする最初の調査論文の1つである。
本稿では,まずGANのレビュー論文を,一般的なGANのレビュー論文,画像GANのレビュー論文,および異常検出,医用画像,サイバーセキュリティなどの特別分野GANのレビュー論文に分類した。
本稿は、当初ビデオドメイン向けに開発されなかったが、複数のビデオGANに採用されているGANフレームワークの主な改善点について要約する。
そして、条件の有無に応じて、2つの主要区分の下に、映像GANsモデルの包括的なレビューを行う。
条件モデルはさらに、条件の種類に応じて音声、テキスト、ビデオ、画像にグループ化される。
論文は、現在のビデオ GAN モデルの主な課題と限界を強調して締めくくった。
補足材料には、データセット、応用損失関数、評価指標の包括的なリストが提供されている。
関連論文リスト
- Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Video Diffusion Models: A Survey [3.7985353171858045]
拡散生成モデルは近年、高品質でコヒーレントなビデオコンテンツを作成し、修正するための強力な技術となっている。
本調査では,映像生成における拡散モデルの重要な構成要素について概説する。
論文 参考訳(メタデータ) (2024-05-06T04:01:42Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - A Survey on Video Diffusion Models [103.03565844371711]
AI生成コンテンツ(AIGC)の最近の波は、コンピュータビジョンでかなりの成功を収めている。
その印象的な生成能力のため、拡散モデルは徐々にGANと自動回帰変換器に基づく手法に取って代わられている。
本稿では,AIGC時代の映像拡散モデルについて概観する。
論文 参考訳(メタデータ) (2023-10-16T17:59:28Z) - Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model [0.0]
我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
論文 参考訳(メタデータ) (2023-03-15T12:51:16Z) - Generative Adversarial Networks for Image Super-Resolution: A Survey [101.39605080291783]
単一画像超解像(SISR)は画像処理の分野で重要な役割を果たしている。
近年のGAN(Generative Adversarial Network)は,小サンプルを用いた低解像度画像に対して優れた結果が得られる。
本稿では,異なる視点からGANの比較研究を行う。
論文 参考訳(メタデータ) (2022-04-28T16:35:04Z) - Interpreting Class Conditional GANs with Channel Awareness [57.01413866290279]
クラス条件生成器が複数のクラスの合成をどのように統合するかを検討する。
このような現象を説明するために、単一チャネルが最終合成にどのように貢献するかを定量的に特徴づけるチャネル認識を提案する。
我々のアルゴリズムは条件付きGANでいくつかの新しい応用を可能にする。
論文 参考訳(メタデータ) (2022-03-21T17:53:22Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z) - Comprehensive Information Integration Modeling Framework for Video
Titling [124.11296128308396]
エンド・ツー・エンド・エンド・モデリング・フレームワークにおいて、消費者生成ビデオの内容、消費者から提供される物語コメント文、製品属性などの包括的情報ソースを統合する。
この問題に対処するため,提案手法は,粒度レベルの相互作用モデリングと抽象レベルのストーリーライン要約という2つのプロセスから構成される。
グローバルなeコマースプラットフォームであるTaobaoの実際のデータから、大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2020-06-24T10:38:15Z) - Generative Adversarial Networks for Video-to-Video Domain Adaptation [32.670977389990306]
本稿では,ビデオベースデータを異なるドメイン間で転送するための新しい生成逆ネットワーク(GAN, VideoGAN)を提案する。
映像のフレームには類似した内容と撮像条件がある可能性があるため、提案したビデオGANは、映像内部の一貫性を維持するためのX字型ジェネレータを備えている。
CVC-ClinicとETIS-Laribの2つの大腸内視鏡的データセットを用いて,ビデオGANの性能評価を行った。
論文 参考訳(メタデータ) (2020-04-17T04:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。