論文の概要: Frequency-aware Neural Representation for Videos
- arxiv url: http://arxiv.org/abs/2601.17741v1
- Date: Sun, 25 Jan 2026 08:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.310175
- Title: Frequency-aware Neural Representation for Videos
- Title(参考訳): 映像の周波数認識型ニューラル表現
- Authors: Jun Zhu, Xinfeng Zhang, Lv Tang, Junhao Jiang, Gai Zhang, Jia Wang,
- Abstract要約: ビデオのための周波数対応ニューラル表現であるFaNeRVを提案する。
FaNeRVは、低周波成分と高周波成分を明示的に分離し、効率的で忠実なビデオ再構成を可能にする。
標準ベンチマークの実験では、FaNeRVは最先端のINR法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 31.60687845071296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as a promising paradigm for video compression. However, existing INR-based frameworks typically suffer from inherent spectral bias, which favors low-frequency components and leads to over-smoothed reconstructions and suboptimal rate-distortion performance. In this paper, we propose FaNeRV, a Frequency-aware Neural Representation for videos, which explicitly decouples low- and high-frequency components to enable efficient and faithful video reconstruction. FaNeRV introduces a multi-resolution supervision strategy that guides the network to progressively capture global structures and fine-grained textures through staged supervision . To further enhance high-frequency reconstruction, we propose a dynamic high-frequency injection mechanism that adaptively emphasizes challenging regions. In addition, we design a frequency-decomposed network module to improve feature modeling across different spectral bands. Extensive experiments on standard benchmarks demonstrate that FaNeRV significantly outperforms state-of-the-art INR methods and achieves competitive rate-distortion performance against traditional codecs.
- Abstract(参考訳): Inlicit Neural Representations (INR) はビデオ圧縮の有望なパラダイムとして登場した。
しかし、既存のINRベースのフレームワークは通常、スペクトルバイアスに悩まされ、低周波成分が好まれ、過度にスムースな再構成と最適速度歪み性能をもたらす。
本稿では、低周波成分と高周波成分を明示的に分離し、効率よく忠実な映像再構成を可能にする、ビデオ用周波数対応ニューラル表現であるFaNeRVを提案する。
FaNeRVは、ステージ化された監視を通じて、グローバルな構造ときめ細かいテクスチャを段階的にキャプチャするネットワークをガイドするマルチレゾリューション監視戦略を導入している。
高周波リコンストラクションをさらに強化するため,挑戦領域を適応的に強調する動的高周波インジェクション機構を提案する。
さらに、周波数分解型ネットワークモジュールを設計し、スペクトル帯域間の特徴モデリングを改善する。
標準ベンチマークでの大規模な実験により、FaNeRVは最先端のINR法を著しく上回り、従来のコーデックと競合する速度歪み性能を達成することが示された。
関連論文リスト
- FADPNet: Frequency-Aware Dual-Path Network for Face Super-Resolution [70.61549422952193]
計算コストの制限による顔超解像(FSR)は未解決の問題である。
既存のアプローチでは、全ての顔のピクセルを等しく扱い、計算資源を最適以下に割り当てる。
本稿では、低周波成分と高周波成分に顔の特徴を分解する周波数対応デュアルパスネットワークであるFADPNetを提案する。
論文 参考訳(メタデータ) (2025-06-17T02:33:42Z) - SR-NeRV: Improving Embedding Efficiency of Neural Video Representation via Super-Resolution [0.0]
Inlicit Neural Representations (INR)は、様々な領域における複雑なシグナルをモデル化する能力において、大きな注目を集めている。
汎用超解像(SR)ネットワークを統合したINRに基づく映像表現フレームワークを提案する。
自然画像に事前訓練された専用SRネットワークに細部を復元することで,視覚的忠実度を向上させる。
論文 参考訳(メタデータ) (2025-04-30T03:31:40Z) - FANeRV: Frequency Separation and Augmentation based Neural Representation for Video [32.35716293561769]
ビデオのための周波数分離と拡張に基づくニューラル表現(FANeRV)を提案する。
FANeRVは離散ウェーブレット変換を用いて入力フレームを高周波数成分と低周波数成分に明示的に分離する。
特別に設計されたゲートネットワークは、これらの周波数成分を効果的に融合して最適な再構成を行う。
論文 参考訳(メタデータ) (2025-04-09T10:19:35Z) - SING: Semantic Image Communications using Null-Space and INN-Guided Diffusion Models [52.40011613324083]
近年, 無線画像伝送において, 共用音源チャネル符号化システム (DeepJSCC) が顕著な性能を発揮している。
既存の手法では、送信された画像とレシーバーの再構成されたバージョンとの間の歪みを最小限に抑えることに重点を置いており、しばしば知覚的品質を見落としている。
逆問題として,破損した再構成画像から高品質な画像の復元を定式化する新しいフレームワークであるSINGを提案する。
論文 参考訳(メタデータ) (2025-03-16T12:32:11Z) - Few-shot NeRF by Adaptive Rendering Loss Regularization [78.50710219013301]
スパース入力を用いた新しいビュー合成はニューラルラジアンス場(NeRF)に大きな課題をもたらす
近年の研究では、位置レンダリングの周波数規則化は、数発のNeRFに対して有望な結果が得られることが示されている。
我々は,AR-NeRFと呼ばれる数発のNeRFに対して適応レンダリング損失正規化を提案する。
論文 参考訳(メタデータ) (2024-10-23T13:05:26Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - From NeRFLiX to NeRFLiX++: A General NeRF-Agnostic Restorer Paradigm [57.73868344064043]
我々は、劣化駆動の視点間ミキサーを学習する一般的なNeRF-Agnostic restorerパラダイムであるNeRFLiXを提案する。
また、より強力な2段階のNeRF分解シミュレータとより高速なビューポイントミキサーを備えたNeRFLiX++を提案する。
NeRFLiX++は、ノイズの多い低解像度のNeRFレンダリングビューからフォトリアリスティックな超高解像度出力を復元することができる。
論文 参考訳(メタデータ) (2023-06-10T09:19:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。