論文の概要: FREGAN : an application of generative adversarial networks in enhancing
the frame rate of videos
- arxiv url: http://arxiv.org/abs/2111.01105v1
- Date: Mon, 1 Nov 2021 17:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 15:12:45.949313
- Title: FREGAN : an application of generative adversarial networks in enhancing
the frame rate of videos
- Title(参考訳): FREGAN : ビデオのフレームレート向上のための生成的敵ネットワークの応用
- Authors: Rishik Mishra, Neeraj Gupta, Nitya Shukla
- Abstract要約: FREGAN(Frame Rate Enhancement Generative Adversarial Network)モデルが提案されている。
提案手法の有効性を標準データセットで検証した。
実験結果は,提案モデルがピーク信号対雑音比(PSNR)が34.94で,構造類似度指数(SSIM)が0.95であることを示している。
- 参考スコア(独自算出の注目度): 1.1688030627514534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A digital video is a collection of individual frames, while streaming the
video the scene utilized the time slice for each frame. High refresh rate and
high frame rate is the demand of all high technology applications. The action
tracking in videos becomes easier and motion becomes smoother in gaming
applications due to the high refresh rate. It provides a faster response
because of less time in between each frame that is displayed on the screen.
FREGAN (Frame Rate Enhancement Generative Adversarial Network) model has been
proposed, which predicts future frames of a video sequence based on a sequence
of past frames. In this paper, we investigated the GAN model and proposed
FREGAN for the enhancement of frame rate in videos. We have utilized Huber loss
as a loss function in the proposed FREGAN. It provided excellent results in
super-resolution and we have tried to reciprocate that performance in the
application of frame rate enhancement. We have validated the effectiveness of
the proposed model on the standard datasets (UCF101 and RFree500). The
experimental outcomes illustrate that the proposed model has a Peak
signal-to-noise ratio (PSNR) of 34.94 and a Structural Similarity Index (SSIM)
of 0.95.
- Abstract(参考訳): デジタルビデオは個々のフレームの集合であり、シーンが各フレームのタイムスライスを利用した映像をストリーミングする。
高いリフレッシュレートと高いフレームレートは、すべてのハイテクアプリケーションの要求である。
ビデオのアクショントラッキングは簡単になり、リフレッシュレートが高いため、ゲームアプリケーションでは動きがスムーズになる。
画面に表示されるフレーム間の時間が少なくなるため、より高速なレスポンスを提供する。
fregan(frame rate enhancement generative adversarial network)モデルが提案されており、過去のフレームのシーケンスに基づいてビデオシーケンスの将来フレームを予測する。
本稿では,ganモデルについて検討し,ビデオのフレームレート向上のためにfreganを提案する。
提案手法では,フーバー損失を損失関数として用いた。
超解像に優れた結果をもたらし,フレームレート向上の応用において,その性能を再現しようと試みた。
標準データセット(ucf101およびrfree500)における提案モデルの有効性を検証した。
実験の結果,提案モデルはピーク信号対雑音比(psnr)34.94,構造類似度指数(ssim)0.95であった。
関連論文リスト
- Making Video Quality Assessment Models Sensitive to Frame Rate
Distortions [63.749184706461826]
映像品質評価(VQA)の一環として,フレームレートの変化に伴う歪みを捉えることの問題点を考察する。
本稿では,GREEDの時間的特徴を既存のVQAモデルと組み合わせた単純な融合フレームワークを提案する。
この結果から,効率的な時間表現を用いることで,より堅牢で正確なVQAモデルが得られることが示唆された。
論文 参考訳(メタデータ) (2022-05-21T04:13:57Z) - OCSampler: Compressing Videos to One Clip with Single-step Sampling [82.0417131211353]
本稿では,OCSampler というフレームワークを提案する。
我々の基本的な動機は、効率的なビデオ認識タスクは、フレームをシーケンシャルに拾うのではなく、シーケンス全体を一度に処理することにある。
論文 参考訳(メタデータ) (2022-01-12T09:50:38Z) - High Frame Rate Video Quality Assessment using VMAF and Entropic
Differences [50.265638572116984]
ライブでハイアクションなコンテンツによるストリーミングビデオの人気は、ハイフレームレート(HFR)ビデオへの関心を高めている。
本稿では,比較対象の動画がフレームレートと圧縮係数が異なる場合に,フレームレートに依存するビデオ品質評価(VQA)の問題に対処する。
提案する融合フレームワークは,フレームレートに依存した映像品質を予測するために,より効率的な特徴をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-27T04:08:12Z) - Prediction-assistant Frame Super-Resolution for Video Streaming [40.60863957681011]
ロスフレームによる映像品質の向上を2つの場面で提案します。
最初のケースでは、小さいが効果的なビデオフレーム予測ネットワークを提案する。
第2のケースでは,現在のフレームと以前のフレームを関連付けるビデオ予測ネットワークを改善し,高品質な画像を復元する。
論文 参考訳(メタデータ) (2021-03-17T06:05:27Z) - ST-GREED: Space-Time Generalized Entropic Differences for Frame Rate
Dependent Video Quality Prediction [63.749184706461826]
本研究では, フレームレートが知覚品質に与える影響と, フレームレートと圧縮が, 知覚品質に与える影響について検討した。
本研究では,空間的および時間的帯域通過映像係数の統計を解析する空間時間生成エントロピー差(GREED)と呼ばれる客観的VQAモデルを提案する。
GREEDは、既存のVQAモデルと比較した場合、LIVE-YT-HFRデータベース上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-10-26T16:54:33Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z) - Capturing Video Frame Rate Variations via Entropic Differencing [63.749184706461826]
一般化ガウス分布モデルに基づく新しい統計エントロピー差分法を提案する。
提案手法は,最近提案されたLIVE-YT-HFRデータベースにおいて,主観的スコアと非常によく相関する。
論文 参考訳(メタデータ) (2020-06-19T22:16:52Z) - Deep Slow Motion Video Reconstruction with Hybrid Imaging System [12.340049542098148]
現在の技術は、難題では有効でない線形物体の動きを仮定することにより、フレームを通して標準映像のフレームレートを増大させる。
本稿では,アライメントと外観推定を組み合わせた2段階のディープラーニングシステムを提案する。
我々は、合成合成ハイブリッドビデオでモデルをトレーニングし、様々なテストシーンで高品質な結果を示す。
論文 参考訳(メタデータ) (2020-02-27T14:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。