論文の概要: Restoration of User Videos Shared on Social Media
- arxiv url: http://arxiv.org/abs/2208.08597v1
- Date: Thu, 18 Aug 2022 02:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 14:05:23.458248
- Title: Restoration of User Videos Shared on Social Media
- Title(参考訳): ソーシャルメディア上で共有されたユーザビデオの復元
- Authors: Hongming Luo, Fei Zhou, Kin-man Lam, and Guoping Qiu
- Abstract要約: ソーシャルメディアプラットフォーム上で共有されるユーザビデオは、通常、未知のプロプライエタリな処理手順によって引き起こされる劣化に悩まされる。
本稿では,ソーシャルメディアプラットフォーム上で共有されるユーザビデオの復元のための,新しい一般的なビデオ復元フレームワークを提案する。
エンド・ツー・エンドのマッピングを行う多くのディープラーニングベースのビデオ復元手法とは対照的に,新しい手法であるVOTES(adapTive dEgradation Sensing)によるビデオ復元では,ビデオ復元プロセスを明示的に導くための分解特徴マップ(DFM)の概念が導入されている。
- 参考スコア(独自算出の注目度): 27.16457737969977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User videos shared on social media platforms usually suffer from degradations
caused by unknown proprietary processing procedures, which means that their
visual quality is poorer than that of the originals. This paper presents a new
general video restoration framework for the restoration of user videos shared
on social media platforms. In contrast to most deep learning-based video
restoration methods that perform end-to-end mapping, where feature extraction
is mostly treated as a black box, in the sense that what role a feature plays
is often unknown, our new method, termed Video restOration through adapTive
dEgradation Sensing (VOTES), introduces the concept of a degradation feature
map (DFM) to explicitly guide the video restoration process. Specifically, for
each video frame, we first adaptively estimate its DFM to extract features
representing the difficulty of restoring its different regions. We then feed
the DFM to a convolutional neural network (CNN) to compute hierarchical
degradation features to modulate an end-to-end video restoration backbone
network, such that more attention is paid explicitly to potentially more
difficult to restore areas, which in turn leads to enhanced restoration
performance. We will explain the design rationale of the VOTES framework and
present extensive experimental results to show that the new VOTES method
outperforms various state-of-the-art techniques both quantitatively and
qualitatively. In addition, we contribute a large scale real-world database of
user videos shared on different social media platforms. Codes and datasets are
available at https://github.com/luohongming/VOTES.git
- Abstract(参考訳): ソーシャルメディアプラットフォームで共有されているユーザービデオは、通常、未知のプロプライエタリな処理手順によって引き起こされる劣化に苦しんでいる。
本稿では,ソーシャルメディアプラットフォーム上で共有されるユーザビデオの復元のための汎用的ビデオ復元フレームワークを提案する。
特徴抽出をブラックボックスとして扱う深層学習に基づくビデオ復元手法では,機能の役割が不明な場合が多いが,本手法では,adapTive dEgradation Sensing (VOTES) によるビデオ復元 (Video restOration) という手法を用いて,映像復元過程を明示的に導くための劣化特徴マップ (DFM) の概念を導入している。
具体的には、各ビデオフレームに対して、まずDFMを適応的に推定し、各領域の復元が困難であることを示す特徴を抽出する。
次に,dfmを畳み込みニューラルネットワーク(cnn)に供給し,階層的劣化特性を計算し,エンド・ツー・エンドのビデオ復元バックボーンネットワークを変調する。
本稿では,VOTESフレームワークの設計原理を説明し,新しいVOTES法が様々な最先端技術よりも定量的かつ定性的に優れていることを示す。
さらに,さまざまなソーシャルメディアプラットフォーム上で共有されるユーザビデオの大規模実世界データベースにコントリビュートする。
コードとデータセットはhttps://github.com/luohongming/votes.gitで入手できる。
関連論文リスト
- Learning Truncated Causal History Model for Video Restoration [14.381907888022615]
TURTLEは、効率的かつ高性能なビデオ復元のための散在した因果履歴モデルを学ぶ。
我々は,多数のビデオ復元ベンチマークタスクに関する最新の結果について報告する。
論文 参考訳(メタデータ) (2024-10-04T21:31:02Z) - DiffIR2VR-Zero: Zero-Shot Video Restoration with Diffusion-based Image Restoration Models [9.145545884814327]
本稿では,事前学習画像復元拡散モデルを用いたゼロショット映像復元手法を提案する。
本手法は,ゼロショット映像復元において最高の性能を発揮することを示す。
本手法は任意の2次元復元拡散モデルで動作し,広範に再トレーニングを行うことなく,映像強調作業のための汎用的で強力なツールを提供する。
論文 参考訳(メタデータ) (2024-07-01T17:59:12Z) - Dual-Stream Knowledge-Preserving Hashing for Unsupervised Video
Retrieval [67.52910255064762]
時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
まず、時間層とハッシュ層を含む単純な二重ストリーム構造を設計する。
自己スーパービジョンから得られたセマンティック類似性知識の助けを借りて、ハッシュ層はセマンティック検索のための情報を取得することを学習する。
このようにして、モデルは自然に二進的なコードに絡み合ったセマンティクスを保存します。
論文 参考訳(メタデータ) (2023-10-12T03:21:12Z) - Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - TVTSv2: Learning Out-of-the-box Spatiotemporal Visual Representations at
Scale [59.01246141215051]
言語指導の観点から,その劣化要因を分析した。
本稿では,テキストエンコーダの一般化能力を維持するために,教師なし事前学習戦略を提案する。
最大10億のパラメータを持つTVTSv2と呼ばれる一連のモデルを作成します。
論文 参考訳(メタデータ) (2023-05-23T15:44:56Z) - Video Event Restoration Based on Keyframes for Video Anomaly Detection [9.18057851239942]
既存のディープニューラルネットワークベースの異常検出(VAD)手法は、主にフレーム再構成やフレーム予測の経路に従う。
これらの制限を突破するために、新しいVADパラダイムを導入します。
本稿では,ビデオイベント復元のためのU字型スイニングトランスフォーマーネットワーク (USTN-DSC) を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:13:19Z) - On the Generalization of BasicVSR++ to Video Deblurring and Denoising [98.99165593274304]
我々は、BasicVSR++をビデオ復元タスクのための汎用フレームワークに拡張する。
入力と出力が同じ空間サイズを持つタスクでは、入力解像度はストライド畳み込みによって削減され効率が維持される。
BasicVSR++からの最小限の変更だけで、提案するフレームワークは、様々なビデオ復元タスクにおいて、非常に効率よく魅力的なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-04-11T17:59:56Z) - Bringing Old Films Back to Life [33.78936333249432]
本稿では,過度に劣化した古いフィルムを復元するために,RTN(Recurrent Transformer Network)という学習ベースのフレームワークを提案する。
本手法は,隠蔽に関する豊富な情報を含む隣接フレームから学習した隠れ知識に基づいている。
論文 参考訳(メタデータ) (2022-03-31T17:59:59Z) - BasicVSR++: Improving Video Super-Resolution with Enhanced Propagation
and Alignment [90.81396836308085]
我々は,伝播とアライメントの強化による再生フレームワークの強化により,映像情報をより効果的に活用できることを示す。
我々のモデルである BasicVSR++ は PSNR で BasicVSR を 0.82 dB で上回っている。
BasicVSR++は圧縮ビデオ強化などの他のビデオ復元タスクによく一般化される。
論文 参考訳(メタデータ) (2021-04-27T17:58:31Z) - Learning the Loss Functions in a Discriminative Space for Video
Restoration [48.104095018697556]
本稿では,映像復元作業に特有の識別空間を学習し,効果的な損失関数を構築するための新しい枠組みを提案する。
私たちのフレームワークは、ジェネレータと損失ネットワークという2つのネットワークを反復的にトレーニングするという点で、GANと似ています。
ビデオスーパーレゾリューションとデブロワーリングの実験により,我々の手法がより視覚的に楽しいビデオを生成することが示された。
論文 参考訳(メタデータ) (2020-03-20T06:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。