論文の概要: Learning the Loss Functions in a Discriminative Space for Video
Restoration
- arxiv url: http://arxiv.org/abs/2003.09124v1
- Date: Fri, 20 Mar 2020 06:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 23:02:15.045611
- Title: Learning the Loss Functions in a Discriminative Space for Video
Restoration
- Title(参考訳): 映像復元のための識別空間における損失関数の学習
- Authors: Younghyun Jo, Jaeyeon Kang, Seoung Wug Oh, Seonghyeon Nam, Peter
Vajda, and Seon Joo Kim
- Abstract要約: 本稿では,映像復元作業に特有の識別空間を学習し,効果的な損失関数を構築するための新しい枠組みを提案する。
私たちのフレームワークは、ジェネレータと損失ネットワークという2つのネットワークを反復的にトレーニングするという点で、GANと似ています。
ビデオスーパーレゾリューションとデブロワーリングの実験により,我々の手法がより視覚的に楽しいビデオを生成することが示された。
- 参考スコア(独自算出の注目度): 48.104095018697556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With more advanced deep network architectures and learning schemes such as
GANs, the performance of video restoration algorithms has greatly improved
recently. Meanwhile, the loss functions for optimizing deep neural networks
remain relatively unchanged. To this end, we propose a new framework for
building effective loss functions by learning a discriminative space specific
to a video restoration task. Our framework is similar to GANs in that we
iteratively train two networks - a generator and a loss network. The generator
learns to restore videos in a supervised fashion, by following ground truth
features through the feature matching in the discriminative space learned by
the loss network. In addition, we also introduce a new relation loss in order
to maintain the temporal consistency in output videos. Experiments on video
superresolution and deblurring show that our method generates visually more
pleasing videos with better quantitative perceptual metric values than the
other state-of-the-art methods.
- Abstract(参考訳): より高度なディープネットワークアーキテクチャとGANのような学習方式により、ビデオ復元アルゴリズムの性能は大幅に向上した。
一方、深層ニューラルネットワークを最適化する損失関数は比較的変化しない。
そこで本研究では,映像復元タスクに特有の識別空間を学習し,効果的な損失関数を構築するための新しい枠組みを提案する。
私たちのフレームワークはgansと似ており、ジェネレータと損失ネットワークという2つのネットワークを反復的にトレーニングしています。
ジェネレータは、損失ネットワークによって学習された識別空間における特徴マッチングを通じて、地上の真実の特徴に従って、監督された方法で映像を復元することを学ぶ。
また,出力ビデオの時間的一貫性を維持するために,新たな関係損失を導入する。
ビデオ・スーパーレゾリューションとデブロワーリングの実験により,本手法は,他の最先端手法よりも定量的な計測値を持つ映像を視覚的により快適に生成することを示した。
関連論文リスト
- Dual-Stream Knowledge-Preserving Hashing for Unsupervised Video
Retrieval [67.52910255064762]
時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
まず、時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
自己スーパービジョンから得られたセマンティック類似性知識の助けを借りて、ハッシュ層はセマンティック検索のための情報を取得することを学習する。
このようにして、モデルは自然に二進的なコードに絡み合ったセマンティクスを保存します。
論文 参考訳(メタデータ) (2023-10-12T03:21:12Z) - Video Event Restoration Based on Keyframes for Video Anomaly Detection [9.18057851239942]
既存のディープニューラルネットワークベースの異常検出(VAD)手法は、主にフレーム再構成やフレーム予測の経路に従う。
これらの制限を突破するために、新しいVADパラダイムを導入します。
本稿では,ビデオイベント復元のためのU字型スイニングトランスフォーマーネットワーク (USTN-DSC) を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:13:19Z) - Unlocking Masked Autoencoders as Loss Function for Image and Video
Restoration [19.561055022474786]
我々は、損失の可能性を研究し、学習した損失関数は、画像とビデオの復元のためのニューラルネットワークの学習能力を高める」。
1)タスク適応型MAEからネイティブMAEへ、2)イメージタスクからビデオタスクへ、3)トランスフォーマー構造から畳み込みニューラルネットワーク構造へ。
論文 参考訳(メタデータ) (2023-03-29T02:41:08Z) - CRC-RL: A Novel Visual Feature Representation Architecture for
Unsupervised Reinforcement Learning [7.4010632660248765]
改良された視覚的特徴を学習するために,CRC損失と呼ばれる不均一な損失関数を用いた新しいアーキテクチャを提案する。
提案したアーキテクチャはCRC-RLと呼ばれ、Deep Mind Controlスイート環境における既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-01-31T08:41:18Z) - Structured Sparsity Learning for Efficient Video Super-Resolution [99.1632164448236]
我々は、ビデオ超解像(VSR)モデルの特性に応じて、構造化スパシティ学習(SSL)と呼ばれる構造化プルーニング手法を開発する。
SSLでは,残差ブロック,リカレントネットワーク,アップサンプリングネットワークなど,VSRモデルのいくつかの重要なコンポーネントに対するプルーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-06-15T17:36:04Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - HRVGAN: High Resolution Video Generation using Spatio-Temporal GAN [0.0]
我々は高解像度ビデオ生成のための新しいネットワークを提案する。
我々のネットワークは、損失項にk-Lipschitz制約を課し、クラスラベルをトレーニングとテストに使用することで、Wasserstein GANのアイデアを使用する。
論文 参考訳(メタデータ) (2020-08-17T20:45:59Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。