論文の概要: SR-NeRV: Improving Embedding Efficiency of Neural Video Representation via Super-Resolution
- arxiv url: http://arxiv.org/abs/2505.00046v2
- Date: Thu, 24 Jul 2025 12:24:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:41.436304
- Title: SR-NeRV: Improving Embedding Efficiency of Neural Video Representation via Super-Resolution
- Title(参考訳): SR-NeRV:超解像によるニューラルビデオ表現の埋め込み効率の向上
- Authors: Taiga Hayami, Kakeru Koizumi, Hiroshi Watanabe,
- Abstract要約: Inlicit Neural Representations (INR)は、様々な領域における複雑なシグナルをモデル化する能力において、大きな注目を集めている。
汎用超解像(SR)ネットワークを統合したINRに基づく映像表現フレームワークを提案する。
自然画像に事前訓練された専用SRネットワークに細部を復元することで,視覚的忠実度を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) have garnered significant attention for their ability to model complex signals in various domains. Recently, INR-based frameworks have shown promise in neural video compression by embedding video content into compact neural networks. However, these methods often struggle to reconstruct high-frequency details under stringent constraints on model size, which are critical in practical compression scenarios. To address this limitation, we propose an INR-based video representation framework that integrates a general-purpose super-resolution (SR) network. This design is motivated by the observation that high-frequency components tend to exhibit low temporal redundancy across frames. By offloading the reconstruction of fine details to a dedicated SR network pre-trained on natural images, the proposed method improves visual fidelity. Experimental results demonstrate that the proposed method outperforms conventional INR-based baselines in reconstruction quality, while maintaining a comparable model size.
- Abstract(参考訳): Inlicit Neural Representations (INR)は、様々な領域における複雑なシグナルをモデル化する能力において、大きな注目を集めている。
最近、INRベースのフレームワークは、ビデオコンテンツをコンパクトなニューラルネットワークに埋め込むことで、ニューラルビデオ圧縮の可能性を証明している。
しかし、これらの手法は、実際の圧縮シナリオにおいて重要なモデルサイズに対する厳密な制約の下で、しばしば高周波の詳細を再構築するのに苦労する。
この制限に対処するために,汎用超解像(SR)ネットワークを統合したINRベースのビデオ表現フレームワークを提案する。
この設計は、高周波成分がフレーム間の時間的冗長度を低くする傾向にあるという観察に動機づけられている。
自然画像に事前訓練された専用SRネットワークに細部を復元することで,視覚的忠実度を向上させる。
実験結果から,提案手法は従来のINRベースベースラインと同等のモデルサイズを維持しつつ,再現性の向上を図っている。
関連論文リスト
- I-INR: Iterative Implicit Neural Representations [21.060226382403506]
Implicit Neural Representations (INR) は、ニューラルネットワークによってパラメータ化された連続的な微分可能な関数として信号をモデル化することで、信号処理とコンピュータビジョンに革命をもたらした。
I-INR(Iterative Implicit Neural Representation)は,反復的精製プロセスによる信号再構成を向上する新しいプラグイン・アンド・プレイフレームワークである。
論文 参考訳(メタデータ) (2025-04-24T08:27:22Z) - SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Implicit Neural Representation for Video and Image Super-Resolution [4.960738913876514]
暗黙的ニューラル表現(INR)を用いた超解像の新手法を提案する。
提案手法は,低分解能入力と3次元高分解能グリッドのみを用いた高分解能再構成を容易にする。
提案手法であるSR-INRは,フレームと画像間の一貫した詳細を維持し,時間的安定性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-06T17:58:55Z) - RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Lightweight image super-resolution with enhanced CNN [82.36883027158308]
強い表現力を持つ深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像(SISR)において印象的な性能を達成した
情報抽出・拡張ブロック(IEEB)、再構築ブロック(RB)、情報精製ブロック(IRB)の3つの連続したサブブロックを持つ軽量拡張SR CNN(LESRCNN)を提案する。
IEEBは階層的低分解能(LR)特徴を抽出し、SISRの深い層上の浅い層の記憶能力を高めるために、得られた特徴を段階的に集約する。
RBはグローバルに拡散することで低周波特徴を高周波特徴に変換する
論文 参考訳(メタデータ) (2020-07-08T18:03:40Z) - iSeeBetter: Spatio-temporal video super-resolution using recurrent
generative back-projection networks [0.0]
ビデオ超解像(VSR)に対する新しいGANに基づく構造時間的アプローチiSeeBetterを提案する。
iSeeBetterは、リカレントバックプロジェクションネットワークをジェネレータとして使用して、現在のフレームと隣接するフレームから時空間情報を抽出する。
以上の結果から,iSeeBetterはVSRの忠実度に優れ,最先端の性能に勝ることを示した。
論文 参考訳(メタデータ) (2020-06-13T01:36:30Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Residual Channel Attention Generative Adversarial Network for Image
Super-Resolution and Noise Reduction [14.217260022873083]
深層ネットワークが深まるにつれて、トレーニングが難しくなり、より細かいテクスチャの詳細を復元することが難しくなります。
本稿では,これらの問題を解決するために,Residual Channel Attention-Generative Adversarial Network (RCA-GAN)を提案する。
RCA-GANは、ベースラインモデルよりも細部と自然なテクスチャで、常に視覚的品質が向上する。
論文 参考訳(メタデータ) (2020-04-28T17:23:46Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。