論文の概要: Blurry Video Compression: A Trade-off between Visual Enhancement and
Data Compression
- arxiv url: http://arxiv.org/abs/2311.04430v1
- Date: Wed, 8 Nov 2023 02:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 17:16:29.175211
- Title: Blurry Video Compression: A Trade-off between Visual Enhancement and
Data Compression
- Title(参考訳): ぼやけたビデオ圧縮:ビジュアルエンハンスメントとデータ圧縮のトレードオフ
- Authors: Dawit Mureja Argaw, Junsik Kim, In So Kweon
- Abstract要約: 既存のビデオ圧縮(VC)手法は主に、ビデオ内の連続フレーム間の空間的および時間的冗長性を減らすことを目的としている。
これまでの研究は、インスタント(既知の)露光時間やシャッタースピードなどの特定の設定で取得されたビデオに対して、顕著な成果を上げてきた。
本研究では,シーン内のカメラ設定やダイナミックスによって,所定の映像がぼやけてしまうという一般的なシナリオにおいて,VCの問題に取り組む。
- 参考スコア(独自算出の注目度): 65.8148169700705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing video compression (VC) methods primarily aim to reduce the spatial
and temporal redundancies between consecutive frames in a video while
preserving its quality. In this regard, previous works have achieved remarkable
results on videos acquired under specific settings such as instant (known)
exposure time and shutter speed which often result in sharp videos. However,
when these methods are evaluated on videos captured under different temporal
priors, which lead to degradations like motion blur and low frame rate, they
fail to maintain the quality of the contents. In this work, we tackle the VC
problem in a general scenario where a given video can be blurry due to
predefined camera settings or dynamics in the scene. By exploiting the natural
trade-off between visual enhancement and data compression, we formulate VC as a
min-max optimization problem and propose an effective framework and training
strategy to tackle the problem. Extensive experimental results on several
benchmark datasets confirm the effectiveness of our method compared to several
state-of-the-art VC approaches.
- Abstract(参考訳): 既存のビデオ圧縮法(VC)は,映像の画質を保ちながら連続するフレーム間の空間的・時間的冗長性を低減することを目的としている。
この点に関して、以前の作品では、インスタント(既知の)露光時間やシャッタースピードといった特定の設定で取得したビデオで目覚ましい結果が得られている。
しかし、これらの手法が異なる時間差で撮影されたビデオで評価されると、動きのぼやけやフレームレートの低下といった劣化が生じ、コンテンツの品質を維持できない。
本研究では,シーン内のカメラ設定やダイナミックスによって,所定の映像がぼやけてしまうという一般的なシナリオにおいて,VCの問題に取り組む。
ビジュアルエンハンスメントとデータ圧縮の自然なトレードオフを利用して、最小限の最適化問題としてVCを定式化し、この問題に対処するための効果的なフレームワークとトレーニング戦略を提案する。
いくつかのベンチマークデータセットにおける広範囲な実験結果から,本手法の有効性を確認した。
関連論文リスト
- Uncertainty-Aware Deep Video Compression with Ensembles [24.245365441718654]
深層アンサンブルによる予測不確かさを効果的に把握できる不確実性対応ビデオ圧縮モデルを提案する。
我々のモデルは1080pのシーケンスに比べて20%以上効率良くビットを節約できる。
論文 参考訳(メタデータ) (2024-03-28T05:44:48Z) - Perceptual Quality Improvement in Videoconferencing using
Keyframes-based GAN [28.773037051085318]
本稿では,ビデオ会議における圧縮アーティファクト削減のための新しいGAN手法を提案する。
まず,圧縮および参照フレームからマルチスケールの特徴を抽出する。
そして、私たちのアーキテクチャは、顔のランドマークに従って、これらの特徴を段階的に組み合わせます。
論文 参考訳(メタデータ) (2023-11-07T16:38:23Z) - High Visual-Fidelity Learned Video Compression [6.609832462227998]
我々は,HVFVC(High Visual-Fidelity Learned Video Compression framework)を提案する。
具体的には,新たに出現した地域での貧弱な復興問題に対処するために,信頼度に基づく新しい特徴再構成手法を設計する。
広汎な実験により提案したHVFVCは、50%しか必要とせず、最新のVVC標準よりも優れた知覚品質が得られることが示された。
論文 参考訳(メタデータ) (2023-10-07T03:27:45Z) - Predictive Coding For Animation-Based Video Compression [13.161311799049978]
本稿では,画像アニメーションを予測器として用いる予測符号化手法を提案し,実際の対象フレームに対する残差を符号化する。
実験の結果,HEVCビデオ標準に比べて70%以上,VVCに比べて30%以上,有意な上昇を示した。
論文 参考訳(メタデータ) (2023-07-09T14:40:54Z) - Exploring Long- and Short-Range Temporal Information for Learned Video
Compression [54.91301930491466]
圧縮性能を高めるために,映像コンテンツの特徴を活かし,時間的情報を探究することに注力する。
本稿では,画像群(GOP)内で画像の推測中に連続的に更新できる時間前処理を提案する。
この場合、時間的事前は、現在のGOP内のすべてのデコードされた画像の貴重な時間的情報を含む。
本稿では,マルチスケール補償を実現する階層構造を設計する。
論文 参考訳(メタデータ) (2022-08-07T15:57:18Z) - Leveraging Bitstream Metadata for Fast, Accurate, Generalized Compressed
Video Quality Enhancement [74.1052624663082]
圧縮ビデオの細部を復元する深層学習アーキテクチャを開発した。
これにより,従来の圧縮補正法と比較して復元精度が向上することを示す。
我々は、ビットストリームで容易に利用できる量子化データに対して、我々のモデルを条件付けする。
論文 参考訳(メタデータ) (2022-01-31T18:56:04Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Blind Video Temporal Consistency via Deep Video Prior [61.062900556483164]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
本手法は,一対のオリジナルビデオとプロセッシングビデオを直接トレーニングするのみである。
本稿では,Deep Video Priorを用いてビデオ上の畳み込みネットワークをトレーニングすることにより,時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。