論文の概要: Implicit Neural Representation for Video Restoration
- arxiv url: http://arxiv.org/abs/2506.05488v1
- Date: Thu, 05 Jun 2025 18:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.187909
- Title: Implicit Neural Representation for Video Restoration
- Title(参考訳): 映像再生のための暗黙的ニューラル表現
- Authors: Mary Aiyetigbo, Wanqi Yuan, Feng Luo, Nianyi Li,
- Abstract要約: Inlicit Neural Representations (INR)に基づく新しいビデオ復元手法であるVR-INRを紹介する。
VR-INRは、テスト時に任意の、目に見えない超解像スケールに効果的に一般化する。
トレーニング中、目に見えないスケールで高品質な再構築とノイズを継続的に維持する。
- 参考スコア(独自算出の注目度): 4.960738913876514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-resolution (HR) videos play a crucial role in many computer vision applications. Although existing video restoration (VR) methods can significantly enhance video quality by exploiting temporal information across video frames, they are typically trained for fixed upscaling factors and lack the flexibility to handle scales or degradations beyond their training distribution. In this paper, we introduce VR-INR, a novel video restoration approach based on Implicit Neural Representations (INRs) that is trained only on a single upscaling factor ($\times 4$) but generalizes effectively to arbitrary, unseen super-resolution scales at test time. Notably, VR-INR also performs zero-shot denoising on noisy input, despite never having seen noisy data during training. Our method employs a hierarchical spatial-temporal-texture encoding framework coupled with multi-resolution implicit hash encoding, enabling adaptive decoding of high-resolution and noise-suppressed frames from low-resolution inputs at any desired magnification. Experimental results show that VR-INR consistently maintains high-quality reconstructions at unseen scales and noise during training, significantly outperforming state-of-the-art approaches in sharpness, detail preservation, and denoising efficacy.
- Abstract(参考訳): 高解像度(HR)ビデオは多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
既存のビデオ復元(VR)手法は、ビデオフレーム間の時間的情報を活用することで、映像品質を著しく向上させることができるが、通常、固定されたアップスケーリング要因のために訓練され、トレーニング分布を超えてスケールや劣化を扱う柔軟性に欠ける。
本稿では,インプリシットニューラルネットワーク表現(INR)に基づく新しいビデオ復元手法であるVR-INRを紹介する。
特に、VR-INRは、トレーニング中にノイズの多いデータを見たことがないにも関わらず、ノイズの多い入力をゼロショットでデノベーションする機能も備えている。
提案手法では,高分解能および雑音抑圧フレームを任意の所望の倍率で低分解能入力から適応復号化できる多分解能暗黙的ハッシュ符号化と組み合わせた階層型時空間テクスチャ符号化フレームワークを用いる。
実験の結果,VR-INRはトレーニング中,目立たないスケールで高品質な再現とノイズを継続的に維持し,シャープネス,ディテール保存,聴覚効果において最先端のアプローチよりも優れていた。
関連論文リスト
- I-INR: Iterative Implicit Neural Representations [21.060226382403506]
Implicit Neural Representations (INR) は、ニューラルネットワークによってパラメータ化された連続的な微分可能な関数として信号をモデル化することで、信号処理とコンピュータビジョンに革命をもたらした。
I-INR(Iterative Implicit Neural Representation)は,反復的精製プロセスによる信号再構成を向上する新しいプラグイン・アンド・プレイフレームワークである。
論文 参考訳(メタデータ) (2025-04-24T08:27:22Z) - VRVVC: Variable-Rate NeRF-Based Volumetric Video Compression [59.14355576912495]
NeRFベースのビデオは、FVV(Photorealistic Free-Viewpoint Video)体験を提供することによって、ビジュアルメディアに革命をもたらした。
大量のデータボリュームは、ストレージと送信に重大な課題をもたらす。
ビデオ圧縮のための新しいエンドツーエンドの可変レートフレームワークであるVRVVCを提案する。
論文 参考訳(メタデータ) (2024-12-16T01:28:04Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - VCISR: Blind Single Image Super-Resolution with Video Compression
Synthetic Data [18.877077302923713]
本稿では,映像圧縮に基づく劣化モデルを用いて,ブラインドSISRタスクにおける低解像度画像データを合成する。
提案手法は既存の画像データセットに適用可能である。
SISR分解モデルにビデオ符号化アーティファクトを導入することで、ニューラルネットワークは、ビデオ圧縮劣化を復元する機能を備えた、画像の超解凍を可能にする。
論文 参考訳(メタデータ) (2023-11-02T05:24:19Z) - Learning Spatiotemporal Frequency-Transformer for Low-Quality Video
Super-Resolution [47.5883522564362]
Video Super-Resolution (VSR)は、高解像度(HR)ビデオを低解像度(LR)ビデオから復元することを目的としている。
既存のVSR技術は通常、近くのフレームから既知の劣化プロセスでテクスチャを抽出することでHRフレームを復元する。
本稿では,空間-時間-周波数領域の組み合わせで自己アテンションを行う低品質ビデオを扱うための新しい周波数変換器(FTVSR)を提案する。
論文 参考訳(メタデータ) (2022-12-27T16:26:15Z) - Learning Task-Oriented Flows to Mutually Guide Feature Alignment in
Synthesized and Real Video Denoising [137.5080784570804]
Video Denoisingは、クリーンなノイズを回復するためにビデオからノイズを取り除くことを目的としている。
既存の研究によっては、近辺のフレームから追加の空間的時間的手がかりを利用することで、光学的流れがノイズ発生の助けとなることが示されている。
本稿では,様々なノイズレベルに対してより堅牢なマルチスケール光フロー誘導型ビデオデノイング法を提案する。
論文 参考訳(メタデータ) (2022-08-25T00:09:18Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z) - DynaVSR: Dynamic Adaptive Blind Video Super-Resolution [60.154204107453914]
DynaVSRは、現実世界のビデオSRのための新しいメタラーニングベースのフレームワークである。
様々な種類の合成ボケカーネルを備えたマルチフレームダウンスケーリングモジュールをトレーニングし、入力認識適応のためのビデオSRネットワークとシームレスに結合する。
実験結果から,DynaVSRは最先端のビデオSRモデルの性能を一定に向上することがわかった。
論文 参考訳(メタデータ) (2020-11-09T15:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。