論文の概要: Boosting Neural Video Representation via Online Structural Reparameterization
- arxiv url: http://arxiv.org/abs/2511.11071v1
- Date: Fri, 14 Nov 2025 08:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.502992
- Title: Boosting Neural Video Representation via Online Structural Reparameterization
- Title(参考訳): オンライン構造パラメータ化によるニューラルビデオ表現の強化
- Authors: Ziyi Li, Qingyu Mao, Shuai Liu, Qilei Li, Fanyang Meng, Yongsheng Liang,
- Abstract要約: オンライン構造的再パラメータ化に基づくNVRフレームワークである Online-RepNeRV を提案する。
本手法は,トレーニング時間と復号速度を同等に保ちながら,ベースライン法平均PSNR0.37-2.7dBを達成する。
- 参考スコア(独自算出の注目度): 16.30945567392327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Video Representation~(NVR) is a promising paradigm for video compression, showing great potential in improving video storage and transmission efficiency. While recent advances have made efforts in architectural refinements to improve representational capability, these methods typically involve complex designs, which may incur increased computational overhead and lack the flexibility to integrate into other frameworks. Moreover, the inherent limitation in model capacity restricts the expressiveness of NVR networks, resulting in a performance bottleneck. To overcome these limitations, we propose Online-RepNeRV, a NVR framework based on online structural reparameterization. Specifically, we propose a universal reparameterization block named ERB, which incorporates multiple parallel convolutional paths to enhance the model capacity. To mitigate the overhead, an online reparameterization strategy is adopted to dynamically fuse the parameters during training, and the multi-branch structure is equivalently converted into a single-branch structure after training. As a result, the additional computational and parameter complexity is confined to the encoding stage, without affecting the decoding efficiency. Extensive experiments on mainstream video datasets demonstrate that our method achieves an average PSNR gain of 0.37-2.7 dB over baseline methods, while maintaining comparable training time and decoding speed.
- Abstract(参考訳): Neural Video Representation~(NVR)はビデオ圧縮において有望なパラダイムであり、ビデオストレージと伝送効率を改善する大きな可能性を示している。
近年の進歩は、表現能力を改善するためのアーキテクチャの改良に力を入れているが、これらの手法は一般に複雑な設計を伴い、計算オーバーヘッドが増大し、他のフレームワークに統合する柔軟性が欠如している。
さらに、モデルキャパシティの固有の制限は、NVRネットワークの表現性を制限し、性能ボトルネックをもたらす。
これらの制約を克服するため,オンライン構造パラメータ化に基づくNVRフレームワークである Online-RepNeRV を提案する。
具体的には、複数の並列畳み込み経路を組み込んでモデル容量を向上する、ERBという普遍的な再パラメータ化ブロックを提案する。
オーバーヘッドを軽減するため、トレーニング中にパラメータを動的に融合させるオンライン再パラメータ化戦略を採用し、トレーニング後、マルチブランチ構造を等価に単一ブランチ構造に変換する。
その結果、デコード効率に影響を与えることなく、追加の計算およびパラメータの複雑さを符号化段階に限定する。
本手法はトレーニング時間と復号速度を維持しつつ,ベースライン法で平均PSNR0.37-2.7dBを達成することを示す。
関連論文リスト
- FCA2: Frame Compression-Aware Autoencoder for Modular and Fast Compressed Video Super-Resolution [68.77813885751308]
最先端(SOTA)圧縮ビデオ超解像(CVSR)モデルは、長期の推論時間、複雑なトレーニングパイプライン、補助情報への依存など、永続的な課題に直面している。
ハイパースペクトル画像(HSI)とビデオデータの構造的および統計的類似性から着想を得た,効率的でスケーラブルなソリューションを提案する。
提案手法では,計算複雑性を低減し,推論を高速化し,フレーム間の時間情報の抽出を促進する圧縮駆動型次元減少戦略を導入する。
論文 参考訳(メタデータ) (2025-06-13T07:59:52Z) - CANeRV: Content Adaptive Neural Representation for Video Compression [89.35616046528624]
映像圧縮のためのコンテンツ適応型ニューラル表現法(CANeRV)を提案する。
CANeRVは革新的なINRベースのビデオ圧縮ネットワークであり、各ビデオシーケンスの特定の内容に基づいて、構造最適化を適応的に行う。
CNeRVはH.266/VVCと最先端のINRベースの動画圧縮技術の両方を多種多様なビデオデータセットで上回り得ることを示す。
論文 参考訳(メタデータ) (2025-02-10T06:21:16Z) - LADDER: An Efficient Framework for Video Frame Interpolation [12.039193291203492]
ビデオフレーム補間(VFI)は、スローモーション生成、フレームレート変換、ビデオフレーム復元など、様々な応用において重要な技術である。
本稿では,効率と品質のバランスをとることを目的とした,効率的なビデオフレームフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-17T06:47:17Z) - Boosting Neural Representations for Videos with a Conditional Decoder [28.073607937396552]
Inlicit Neural representations (INRs) は、ビデオストレージと処理において有望なアプローチとして登場した。
本稿では,現在の暗黙的ビデオ表現手法のための普遍的なブースティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T08:32:19Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。