論文の概要: Real-Time Video Deblurring via Lightweight Motion Compensation
- arxiv url: http://arxiv.org/abs/2205.12634v1
- Date: Wed, 25 May 2022 10:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 15:15:48.668401
- Title: Real-Time Video Deblurring via Lightweight Motion Compensation
- Title(参考訳): 軽量モーション補償によるリアルタイム映像の劣化
- Authors: Hyeongseok Son, Junyong Lee, Sunghyun Cho, Seungyong Lee
- Abstract要約: 本稿では,軽量マルチタスクユニットからなるリアルタイムビデオデブロアリングフレームワークを提案する。
複数のマルチタスクユニットを積み重ねることで、当社のフレームワークはコストと劣化する品質を柔軟に制御できます。
- 参考スコア(独自算出の注目度): 24.326108758922015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While motion compensation greatly improves video deblurring quality,
separately performing motion compensation and video deblurring demands huge
computational overhead. This paper proposes a real-time video deblurring
framework consisting of a lightweight multi-task unit that supports both video
deblurring and motion compensation in an efficient way. The multi-task unit is
specifically designed to handle large portions of the two tasks using a single
shared network, and consists of a multi-task detail network and simple networks
for deblurring and motion compensation. The multi-task unit minimizes the cost
of incorporating motion compensation into video deblurring and enables
real-time deblurring. Moreover, by stacking multiple multi-task units, our
framework provides flexible control between the cost and deblurring quality. We
experimentally validate the state-of-the-art deblurring quality of our
approach, which runs at a much faster speed compared to previous methods, and
show practical real-time performance (30.99dB@30fps measured in the DVD
dataset).
- Abstract(参考訳): 動き補償は映像の画質を大幅に向上させるが、動き補償と動画の劣化を別々に行うと膨大な計算オーバーヘッドが要求される。
本稿では,映像の劣化と動き補償の両方を効率よくサポートする軽量マルチタスクユニットからなるリアルタイムビデオデブロアリングフレームワークを提案する。
マルチタスクユニットは、単一の共有ネットワークを用いて2つのタスクの大部分を処理するように設計されており、マルチタスクの詳細ネットワークと、振れや動き補償のための単純なネットワークで構成されている。
マルチタスクユニットは、動画デブロアリングに動き補償を組み込むコストを最小化し、リアルタイムデブロアリングを可能にする。
さらに,複数のマルチタスクユニットを積み重ねることで,コストと分離品質のフレキシブルな制御を実現する。
従来の手法に比べてはるかに高速で動作し,実用的な実時間性能(dvdデータセットで測定した30.99db@30fps)を示す,最先端のデブラリング品質を実験的に検証した。
関連論文リスト
- Adaptive Caching for Faster Video Generation with Diffusion Transformers [52.73348147077075]
拡散変換器(DiT)はより大きなモデルと重い注意機構に依存しており、推論速度が遅くなる。
本稿では,Adaptive Caching(AdaCache)と呼ばれる,ビデオDiTの高速化のためのトレーニング不要手法を提案する。
また,AdaCache内で動画情報を利用するMoReg方式を導入し,動作内容に基づいて計算割り当てを制御する。
論文 参考訳(メタデータ) (2024-11-04T18:59:44Z) - Multi-Task Decision-Making for Multi-User 360 Video Processing over Wireless Networks [9.642593500545997]
無線マルチユーザーバーチャルリアリティ(VR)システムにおいて,360度ビデオ処理におけるマルチタスク決定問題について検討する。
これはデータボリュームと帯域幅の増大を犠牲にしている。
本稿では,ビデオフレーム間の再バッファリング時間と品質変化がユーザおよびビデオ要求に依存する,制約付きクオリティ・オブ・エクスペリエンス(QoE)問題を提案する。
論文 参考訳(メタデータ) (2024-07-03T18:09:25Z) - Revisiting Learning-based Video Motion Magnification for Real-time
Processing [23.148430647367224]
動画の動きを拡大する技術は、裸眼で見えないビデオの中で微妙な動きを捉え、増幅する技術である。
FLOPを4.2倍小さくし,従来よりも2.7倍高速なリアルタイム深層学習に基づく動き倍率モデルを提案する。
論文 参考訳(メタデータ) (2024-03-04T09:57:08Z) - Object-Centric Diffusion for Efficient Video Editing [64.71639719352636]
拡散ベースのビデオ編集は素晴らしい品質に達している。
このようなソリューションは通常、時間的に整合性のあるフレームを生成するために重いメモリと計算コストを発生させる。
品質を維持しつつ、大幅なスピードアップを可能にする修正を提案する。
論文 参考訳(メタデータ) (2024-01-11T08:36:15Z) - Recurrent Video Deblurring with Blur-Invariant Motion Estimation and
Pixel Volumes [14.384467317051831]
本稿では,複数のビデオフレームから情報を効果的に集約することで,映像をブルーリングする2つの新しい手法を提案する。
まず、ぼやけたフレーム間の動き推定精度を向上させるために、ぼやけた不変な動き推定学習を提案する。
第二に、動き補正のために、推定した動きを歪ませてフレームを整列する代わりに、被写体がシャープな画素を含む画素体積を用いて、動き推定誤差を解消する。
論文 参考訳(メタデータ) (2021-08-23T07:36:49Z) - Restoration of Video Frames from a Single Blurred Image with Motion
Understanding [69.90724075337194]
単一モーション赤画像からクリーンな映像フレームを生成するための新しいフレームワークを提案する。
一つのぼやけた画像からの映像復元を逆問題として、クリーンな画像シーケンスとそれぞれの動きを潜伏要因として設定する。
提案手法は,空間トランスフォーマネットワークモジュールを用いたanblur-decoder構造に基づいている。
論文 参考訳(メタデータ) (2021-04-19T08:32:57Z) - Large Motion Video Super-Resolution with Dual Subnet and Multi-Stage
Communicated Upsampling [18.09730129484432]
ビデオ超解像(VSR)は、低解像度(LR)でビデオを復元し、高解像度(HR)に改善することを目的としている。
本稿では,2重サブネットと多段通信アップサンプリング(dsmc)を用いた,大規模動画の超高解像度化のための深層ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-22T11:52:12Z) - Motion-Attentive Transition for Zero-Shot Video Object Segmentation [99.44383412488703]
ゼロショットオブジェクトセグメンテーションのためのモーション・アテンタティブ・トランジション・ネットワーク(MATNet)を提案する。
モーション・アテンティブ・トランジション (MAT) と呼ばれる非対称のアテンションブロックは、2ストリームエンコーダ内に設計されている。
このように、エンコーダは深く相互に作用し、物体の動きと外観の間の密な階層的な相互作用を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:58:42Z) - Deep Slow Motion Video Reconstruction with Hybrid Imaging System [12.340049542098148]
現在の技術は、難題では有効でない線形物体の動きを仮定することにより、フレームを通して標準映像のフレームレートを増大させる。
本稿では,アライメントと外観推定を組み合わせた2段階のディープラーニングシステムを提案する。
我々は、合成合成ハイブリッドビデオでモデルをトレーニングし、様々なテストシーンで高品質な結果を示す。
論文 参考訳(メタデータ) (2020-02-27T14:18:12Z) - Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video
Super-Resolution [95.26202278535543]
単純な解決策は、ビデオフレーム(VFI)とビデオ超解像(VSR)の2つのサブタスクに分割することである。
時間合成と空間超解像はこの課題に関係している。
LFR,LRビデオからHRスローモーション映像を直接合成するワンステージ時空間ビデオ超解像フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:59:48Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。