論文の概要: ArrowGAN : Learning to Generate Videos by Learning Arrow of Time
- arxiv url: http://arxiv.org/abs/2101.03710v1
- Date: Mon, 11 Jan 2021 05:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:43:38.396300
- Title: ArrowGAN : Learning to Generate Videos by Learning Arrow of Time
- Title(参考訳): arrowgan : アロー・オブ・タイム学習による動画生成の学習
- Authors: Kibeom Hong, Youngjung Uh, Hyeran Byun
- Abstract要約: 本稿では,時間矢印を補助的タスクとして分類するArrowGANフレームワークを紹介する。
また,ArrowGANフレームワーク上での条件付き画像生成における最近の手法による分類的ArrowGANについても検討する。
私たちの実験は、自己監督タスクとしての時間の矢印の有効性を検証します。
- 参考スコア(独自算出の注目度): 17.72004275743127
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training GANs on videos is even more sophisticated than on images because
videos have a distinguished dimension: time. While recent methods designed a
dedicated architecture considering time, generated videos are still far from
indistinguishable from real videos. In this paper, we introduce ArrowGAN
framework, where the discriminators learns to classify arrow of time as an
auxiliary task and the generators tries to synthesize forward-running videos.
We argue that the auxiliary task should be carefully chosen regarding the
target domain. In addition, we explore categorical ArrowGAN with recent
techniques in conditional image generation upon ArrowGAN framework, achieving
the state-of-the-art performance on categorical video generation. Our extensive
experiments validate the effectiveness of arrow of time as a self-supervisory
task, and demonstrate that all our components of categorical ArrowGAN lead to
the improvement regarding video inception score and Frechet video distance on
three datasets: Weizmann, UCFsports, and UCF-101.
- Abstract(参考訳): 動画上でのGANのトレーニングは、動画の次元が際立ったため、画像よりもさらに洗練されています。
最近の手法は時間を考慮した専用アーキテクチャを設計しているが、生成したビデオは実際のビデオと区別できない。
本稿では,識別者が時間の矢印を補助タスクとして分類し,生成者が前進動画の合成を試みるarrowganフレームワークを提案する。
対象ドメインについて、補助タスクを慎重に選択すべきである。
さらに,ArrowGANフレームワーク上での条件付き画像生成における最近の技術を用いて,カテゴリ型ビデオ生成における最先端のパフォーマンスを実現する。
我々は,自己スーパーバイザリータスクとしてのアロー・オブ・タイムの有効性を検証し,3つのデータセット (weizmann, ucfsports, ucf-101) 上のビデオインセプションスコアとフレシェット映像距離の改善につながることを実証した。
関連論文リスト
- OmniVid: A Generative Framework for Universal Video Understanding [133.73878582161387]
我々は、言語をラベルとして使用し、時間とボックストークンを付加することで、ビデオ理解タスクの出力空間を統合することを目指している。
これにより、分類、キャプション、ローカライゼーションなど、さまざまなタイプのビデオタスクに対処できる。
このようなシンプルで素直なアイデアは極めて効果的であり、最先端ないし競争的な結果を得ることができることを実証する。
論文 参考訳(メタデータ) (2024-03-26T17:59:24Z) - Time Does Tell: Self-Supervised Time-Tuning of Dense Image
Representations [79.87044240860466]
本稿では,高密度自己教師あり学習における時間的一貫性を取り入れた新しい手法を提案する。
タイムチューニング(time-tuning)と呼ぶ我々のアプローチは、画像事前学習モデルから始まり、ラベルなしビデオに新たな自己教師付き時間的アライメントクラスタリングロスを伴って微調整を行う。
タイムチューニングは、教師なしのセマンティックセマンティックセグメンテーションを8~10%改善し、画像にマッチさせる。
論文 参考訳(メタデータ) (2023-08-22T21:28:58Z) - Time Is MattEr: Temporal Self-supervision for Video Transformers [72.42240984211283]
我々は、時間的ダイナミクスをよりよく学習するために、ビデオモデルのための単純で効果的な自己教師型タスクを設計する。
ビデオフレームの時間順序を余分な自己監督として学習し、ランダムにシャッフルされたフレームを低信頼出力に強制する。
様々なビデオ行動認識タスクにおいて,本手法の有効性と最先端のビデオ変換器との互換性を実証する。
論文 参考訳(メタデータ) (2022-07-19T04:44:08Z) - Long Video Generation with Time-Agnostic VQGAN and Time-Sensitive
Transformer [66.56167074658697]
本稿では3D-VQGANとトランスフォーマーを使って数千フレームのビデオを生成する手法を提案する。
評価の結果,16フレームのビデオクリップでトレーニングしたモデルでは,多種多様でコヒーレントで高品質な長編ビデオが生成できることがわかった。
また,テキストと音声に時間情報を組み込むことで,有意義な長ビデオを生成するための条件付き拡張についても紹介する。
論文 参考訳(メタデータ) (2022-04-07T17:59:02Z) - Text-Driven Video Acceleration: A Weakly-Supervised Reinforcement
Learning Method [6.172652648945223]
本稿では,テキストを用いた指導ビデオの高速化を目的とした,弱教師付き手法を提案する。
新たな共同報酬関数がエージェントを誘導し、どのフレームから入力ビデオを取り除き、ターゲット長に減らすかを選択する。
また,高度に識別可能な埋め込み空間を生成可能な拡張視覚誘導型文書注意ネットワーク(VDAN+)を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:43:01Z) - Frame-wise Action Representations for Long Videos via Sequence
Contrastive Learning [44.412145665354736]
本稿では,フレームワイドな行動表現を学習するための,新しいコントラッシブな行動表現学習フレームワークを提案する。
自己教師型学習の最近の進歩に触発されて,2つの相関する視点に適用した新しいシーケンス・コントラッシブ・ロス(SCL)を提案する。
提案手法は,映像アライメントや細かなフレーム検索作業において,優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-28T17:59:54Z) - Cross-category Video Highlight Detection via Set-based Learning [55.49267044910344]
本稿では,Dual-Learner-based Video Highlight Detection (DL-VHD) フレームワークを提案する。
対象とするカテゴリビデオの区別と,ソースビデオカテゴリにおけるハイライトモーメントの特徴を学習する。
さまざまなカテゴリのハイライト検出タスクにおいて、一般的な5つのUnsupervised Domain Adaptation (UDA)アルゴリズムより優れています。
論文 参考訳(メタデータ) (2021-08-26T13:06:47Z) - StyleVideoGAN: A Temporal Generative Model using a Pretrained StyleGAN [70.31913835035206]
本稿では,映像合成問題に対する新しいアプローチを提案する。
トレーニング済みのStyleGANネットワークを利用することで、トレーニング対象の外観を制御できます。
我々の時間的アーキテクチャは、RGBフレームのシーケンスではなく、StyleGANの潜在符号のシーケンスに基づいて訓練される。
論文 参考訳(メタデータ) (2021-07-15T09:58:15Z) - Learning by Aligning Videos in Time [10.075645944474287]
本稿では,時間的映像アライメントを前提課題として,映像表現を学習するための自己教師型アプローチを提案する。
我々は、エンコーダネットワークをトレーニングするための監視信号として使用できる、時間的アライメント損失と時間的正規化項の新たな組み合わせを利用する。
論文 参考訳(メタデータ) (2021-03-31T17:55:52Z) - Straight to the Point: Fast-forwarding Videos via Reinforcement Learning
Using Textual Data [1.004766879203303]
本稿では,指導ビデオの高速化を目的とした強化学習の定式化に基づく新しい手法を提案する。
本手法では,最終映像のギャップを生じさせることなく,情報伝達に関係のないフレームを適応的に選択できる。
本稿では,VDAN(Visually-Guided Document Attention Network)と呼ばれる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。