論文の概要: NeRV360: Neural Representation for 360-Degree Videos with a Viewport Decoder
- arxiv url: http://arxiv.org/abs/2512.20871v1
- Date: Wed, 24 Dec 2025 01:21:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.646672
- Title: NeRV360: Neural Representation for 360-Degree Videos with a Viewport Decoder
- Title(参考訳): NeRV360:ビューポートデコーダを用いた360度ビデオのニューラル表現
- Authors: Daichi Arai, Kyohei Unno, Yasuko Sugito, Yuichi Kusakabe,
- Abstract要約: ビデオに対する暗黙の神経表現(NeRV)は、ビデオ圧縮に強い可能性を示している。
本研究では,パノラマフレーム全体を再構築する代わりに,ユーザ選択ビューポートのみをデコードするエンドツーエンドフレームワークであるNeRV360を提案する。
NeRV360はHNeRVに比べてメモリ消費が7倍減少し、デコード速度が2.5倍向上する。
- 参考スコア(独自算出の注目度): 1.8149327897427234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations for videos (NeRV) have shown strong potential for video compression. However, applying NeRV to high-resolution 360-degree videos causes high memory usage and slow decoding, making real-time applications impractical. We propose NeRV360, an end-to-end framework that decodes only the user-selected viewport instead of reconstructing the entire panoramic frame. Unlike conventional pipelines, NeRV360 integrates viewport extraction into decoding and introduces a spatial-temporal affine transform module for conditional decoding based on viewpoint and time. Experiments on 6K-resolution videos show that NeRV360 achieves a 7-fold reduction in memory consumption and a 2.5-fold increase in decoding speed compared to HNeRV, a representative prior work, while delivering better image quality in terms of objective metrics.
- Abstract(参考訳): ビデオに対する暗黙の神経表現(NeRV)は、ビデオ圧縮に強い可能性を示している。
しかし、高解像度の360度ビデオにNeRVを適用すると、メモリ使用率が高く、復号化が遅いため、リアルタイムアプリケーションは実用的ではない。
本研究では,パノラマフレーム全体を再構築する代わりに,ユーザ選択ビューポートのみをデコードするエンドツーエンドフレームワークであるNeRV360を提案する。
従来のパイプラインとは異なり、NeRV360はビューポート抽出をデコードに統合し、視点と時間に基づく条件付きデコードのための時空間アフィン変換モジュールを導入する。
6K解像度のビデオでの実験では、NeRV360はメモリ消費の7倍の削減とデコード速度の2.5倍の高速化を実現し、客観的な測定値の点で画像品質の向上を実現している。
関連論文リスト
- Omnidirectional Video Super-Resolution using Deep Learning [3.281128493853064]
360degビデオにおける空間解像度の制限は、それぞれの視野を適切なピクセルで表現することはできない。
本稿では,360deg VSR(360deg Video Super-Resolution)のための新しいディープラーニングモデルを提案し,S3PO(Spherical Signal Super- resolution with a Proportioned optimization)を提案する。
S3POはアライメントのような従来のVSR技術とは無関係に、注意機構を備えたリカレントモデリングを採用する。
論文 参考訳(メタデータ) (2025-06-03T05:59:21Z) - Fast Encoding and Decoding for Implicit Video Representation [88.43612845776265]
本稿では,高速エンコーディングのためのトランスフォーマーベースのハイパーネットワークであるNeRV-Encと,効率的なビデオローディングのための並列デコーダであるNeRV-Decを紹介する。
NeRV-Encは勾配ベースの最適化をなくすことで$mathbf104times$の素晴らしいスピードアップを実現している。
NeRV-Decはビデオデコーディングを単純化し、ロード速度が$mathbf11times$で従来のコーデックよりも高速である。
論文 参考訳(メタデータ) (2024-09-28T18:21:52Z) - HNeRV: A Hybrid Neural Representation for Videos [56.492309149698606]
暗黙の神経表現は、動画をニューラルネットワークとして保存する。
ビデオ用ハイブリッドニューラル表現法(HNeRV)を提案する。
コンテンツ適応型埋め込みと再設計アーキテクチャにより、HNeRVはビデオレグレッションタスクにおいて暗黙のメソッドよりも優れる。
論文 参考訳(メタデータ) (2023-04-05T17:55:04Z) - Towards Scalable Neural Representation for Diverse Videos [68.73612099741956]
Inlicit Neural representations (INR)は、3Dシーンや画像の表現において注目を集めている。
既存のINRベースの手法は、冗長な視覚コンテンツを持つ短いビデオの符号化に限られている。
本稿では,多種多様な視覚コンテンツを持つ長編・多作ビデオの符号化のためのニューラル表現の開発に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - CNeRV: Content-adaptive Neural Representation for Visual Data [54.99373641890767]
本稿では、自動エンコーダの一般化性と暗黙的表現の単純さとコンパクトさを組み合わせた、コンテンツ適応型埋め込み(CNeRV)によるニューラルビジュアル表現を提案する。
我々は、トレーニング中にスキップされたフレーム(見えない画像)をはるかに上回りながら、トレーニング中に見られるフレームの再構築作業において、最先端の暗黙のニューラル表現であるNERVのパフォーマンスを一致させる。
同じ遅延コード長と類似のモデルサイズで、CNeRVは、見えていない画像と見えない画像の両方の再構成においてオートエンコーダより優れている。
論文 参考訳(メタデータ) (2022-11-18T18:35:43Z) - Panoramic Vision Transformer for Saliency Detection in 360{\deg} Videos [48.54829780502176]
パノラマ・ビジョン・トランス (PAVER) という新しいフレームワークを提案する。
我々は、変形可能な畳み込みを備えた視覚変換器を用いてエンコーダを設計し、通常のビデオからトレーニング済みのモデルを追加モジュールや微調整なしでアーキテクチャにプラグインできるようにする。
本稿では,VQA-ODVにおける全方位映像品質評価タスクを用いて,従属性予測モデルの有用性を実証する。
論文 参考訳(メタデータ) (2022-09-19T12:23:34Z) - NeRV: Neural Representations for Videos [36.00198388959609]
本稿では,ニューラルネット上で映像をエンコードするビデオ用ニューラル表現(NeRV)を提案する。
NeRVは単純にニューラルネットワークをビデオフレームに適合させ、デコード処理は単純なフィードフォワード操作である。
このような表現によって、ビデオはニューラルネットワークとして扱うことができ、複数のビデオ関連タスクを単純化できる。
論文 参考訳(メタデータ) (2021-10-26T17:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。