論文の概要: SRNeRV: A Scale-wise Recursive Framework for Neural Video Representation
- arxiv url: http://arxiv.org/abs/2603.08227v1
- Date: Mon, 09 Mar 2026 10:56:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.816041
- Title: SRNeRV: A Scale-wise Recursive Framework for Neural Video Representation
- Title(参考訳): SRNeRV: ニューラルビデオ表現のためのスケールワイズ再帰フレームワーク
- Authors: Jia Wang, Jun Zhu, Xinfeng Zhang,
- Abstract要約: Inlicit Neural Representations (INR) はビデオ表現と圧縮のための有望なパラダイムとして登場した。
本稿では,この階層化設計をパラメータ効率のよい共有アーキテクチャに置き換える,新しいスケールワイド再帰的フレームワークSRNeRVを提案する。
SRNeRV は,特にINR フレンドリーなシナリオにおいて,大幅な速度歪み性能向上を実現していることを示す。
- 参考スコア(独自算出の注目度): 27.0821196150039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as a promising paradigm for video representation and compression. However, existing multi-scale INR generators often suffer from significant parameter redundancy by stacking independent processing blocks for each scale. Inspired by the principle of scale self-similarity in the generation process, we propose SRNeRV, a novel scale-wise recursive framework that replaces this stacked design with a parameter-efficient shared architecture. The core of our approach is a hybrid sharing scheme derived from decoupling the processing block into a scale-specific spatial mixing module and a scale-invariant channel mixing module. We recursively apply the same shared channel mixing module, which contains the majority of the parameters, across all scales, significantly reducing the model size while preserving the crucial capacity to learn scale-specific spatial patterns. Extensive experiments demonstrate that SRNeRV achieves a significant rate-distortion performance boost, especially in INR-friendly scenarios, validating that our sharing scheme successfully amplifies the core strengths of the INR paradigm.
- Abstract(参考訳): Inlicit Neural Representations (INR) はビデオ表現と圧縮のための有望なパラダイムとして登場した。
しかし、既存のマルチスケールINRジェネレータは、各スケールごとに独立した処理ブロックを積み重ねることで、大きなパラメータ冗長性に悩まされることが多い。
生成プロセスにおけるスケール自己相似性の原理に着想を得たSRNeRVは,このスタック設計をパラメータ効率のよい共有アーキテクチャに置き換える,新しいスケールワイド再帰的フレームワークである。
提案手法のコアは,処理ブロックをスケール特異的な空間混合モジュールとスケール不変なチャネル混合モジュールに分離したハイブリッド共有方式である。
パラメータの大部分を含む同じ共有チャネル混合モジュールを全スケールにわたって再帰的に適用し、スケール固有の空間パターンを学習するための重要な能力を維持しながら、モデルサイズを大幅に削減する。
特にINRフレンドリーなシナリオにおいて,SRNeRVは,INRパラダイムのコア強度を向上できることを実証した。
関連論文リスト
- Element-wise Modulation of Random Matrices for Efficient Neural Layers [0.0]
軽量で学習可能な要素ワイドパラメータによって変調された固定ランダム行列を用いて,特徴混在を適応から切り離す新しい手法を提案する。
このアーキテクチャは、トレーニング可能なパラメータ数を、様々なベンチマークで信頼性を維持しながら、線形スケールに大幅に削減する。
論文 参考訳(メタデータ) (2025-12-15T16:16:53Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - Structural Similarity-Inspired Unfolding for Lightweight Image Super-Resolution [88.20464308588889]
効率的な画像SRのための構造類似インスパイアド・アンフォールディング(SSIU)法を提案する。
この方法は、構造的類似性に制約されたSR最適化関数の展開によって設計される。
我々のモデルは現在の最先端モデルより優れており、パラメータ数が低く、メモリ消費が減少している。
論文 参考訳(メタデータ) (2025-06-13T14:29:40Z) - SR-NeRV: Improving Embedding Efficiency of Neural Video Representation via Super-Resolution [0.0]
Inlicit Neural Representations (INR)は、様々な領域における複雑なシグナルをモデル化する能力において、大きな注目を集めている。
汎用超解像(SR)ネットワークを統合したINRに基づく映像表現フレームワークを提案する。
自然画像に事前訓練された専用SRネットワークに細部を復元することで,視覚的忠実度を向上させる。
論文 参考訳(メタデータ) (2025-04-30T03:31:40Z) - Incorporating Transformer Designs into Convolutions for Lightweight
Image Super-Resolution [46.32359056424278]
大規模な畳み込みカーネルは畳み込みニューラルネットワークの設計に人気がある。
カーネルのサイズが大きくなるとパラメータの数が2倍に増加し、計算量やメモリの要求も大きくなる。
本稿では,自己注意機構を付加した標準畳み込みを改良した近傍注意モジュールを提案する。
NAモジュールをベースとして,TSRと呼ばれる軽量単一画像超解像(SISR)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-25T01:32:18Z) - Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - Crowd Counting via Hierarchical Scale Recalibration Network [61.09833400167511]
本稿では,群集カウントの課題に取り組むために,階層型大規模校正ネットワーク(HSRNet)を提案する。
HSRNetは、リッチなコンテキスト依存をモデル化し、複数のスケール関連情報を再検討する。
提案手法は,様々なノイズを選択的に無視し,適切な群集スケールに自動的に焦点を合わせることができる。
論文 参考訳(メタデータ) (2020-03-07T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。