論文の概要: Light Field Compression Based on Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2407.10325v1
- Date: Tue, 7 May 2024 12:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 12:49:16.727932
- Title: Light Field Compression Based on Implicit Neural Representation
- Title(参考訳): 入射ニューラル表現に基づく光場圧縮
- Authors: Henan Wang, Hanxin Zhu, Zhibo Chen,
- Abstract要約: 本稿では,暗黙的ニューラル表現に基づく新しい光場圧縮手法を提案し,ビュー間の冗長性を低減した。
ニューラルネットワークに暗黙的に光画像の情報を格納し、暗黙の表現をさらに圧縮するためにモデル圧縮手法を採用する。
- 参考スコア(独自算出の注目度): 10.320292226135306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field, as a new data representation format in multimedia, has the ability to capture both intensity and direction of light rays. However, the additional angular information also brings a large volume of data. Classical coding methods are not effective to describe the relationship between different views, leading to redundancy left. To address this problem, we propose a novel light field compression scheme based on implicit neural representation to reduce redundancies between views. We store the information of a light field image implicitly in an neural network and adopt model compression methods to further compress the implicit representation. Extensive experiments have demonstrated the effectiveness of our proposed method, which achieves comparable rate-distortion performance as well as superior perceptual quality over traditional methods.
- Abstract(参考訳): 光フィールドは、マルチメディアにおける新しいデータ表現フォーマットとして、光線の強度と方向の両方をキャプチャする能力を持つ。
しかし、追加の角情報もまた大量のデータをもたらす。
古典的な符号化手法は、異なるビュー間の関係を記述するのに効果がなく、冗長性を残している。
この問題に対処するために,暗黙的ニューラル表現に基づく新しい光場圧縮手法を提案し,ビュー間の冗長性を低減した。
ニューラルネットワークに暗黙的に光画像の情報を格納し、暗黙の表現をさらに圧縮するためにモデル圧縮手法を採用する。
提案手法の有効性を実証し,従来の手法よりも優れた知覚品質と同等の速度歪み性能を実現する。
関連論文リスト
- Diffusion-based Perceptual Neural Video Compression with Temporal Diffusion Information Reuse [45.134271969594614]
DiffVCは拡散型知覚型ニューラルビデオ圧縮フレームワークである。
基礎拡散モデルとビデオ条件符号化パラダイムを統合する。
提案手法は,知覚指標と視覚的品質の両方において優れた性能を提供することを示す。
論文 参考訳(メタデータ) (2025-01-23T10:23:04Z) - KAN See In the Dark [2.9873893715462185]
既存の低照度画像強調法は、不均一照明とノイズ効果により、通常の低照度画像と低照度画像との複雑な非線形関係に適合することが困難である。
最近提案されたコルモゴロフ・アルノルドネットワーク(KAN)はスプラインベースの畳み込み層と学習可能なアクティベーション関数を備え、非線形依存を効果的に捉えることができる。
本稿では,kanをベースとしたkan-Blockを設計し,低照度画像強調に革新的に適用し,線形ネットワーク構造に制約された現在の手法の限界を効果的に緩和し,解釈可能性の欠如を解消する。
論文 参考訳(メタデータ) (2024-09-05T10:41:17Z) - Learning Kernel-Modulated Neural Representation for Efficient Light
Field Compression [41.24757573290883]
光場圧縮タスクのためのコンパクトニューラルネットワーク表現を設計する。
トレーニング中に学んだシーン記述情報を格納する記述カーネル(ディスクリプタ)と、クエリされた視点から異なるSAIのレンダリングを制御する変調カーネル(モジュレータ)の2種類で構成されている。
論文 参考訳(メタデータ) (2023-07-12T12:58:03Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。