論文の概要: SADN: Learned Light Field Image Compression with Spatial-Angular
Decorrelation
- arxiv url: http://arxiv.org/abs/2202.10837v1
- Date: Tue, 22 Feb 2022 11:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 16:13:20.742004
- Title: SADN: Learned Light Field Image Compression with Spatial-Angular
Decorrelation
- Title(参考訳): SADN:空間角デコレーションによる光場画像圧縮の学習
- Authors: Kedeng Tong, Xin Jin, Chen Wang, Fan Jiang
- Abstract要約: 本稿では,高効率光場画像圧縮のための新しい端から端までの空間角デコラーネットワーク(SADN)を提案する。
提案手法は,H.266/VVCとH.265/HEVCに対して2.137倍,圧縮効率が2.849倍である。
また、画像圧縮ネットワークを平均79.6%の節約率で上回り、主観的品質と光界の整合性が向上した。
- 参考スコア(独自算出の注目度): 15.262518233068622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light field image becomes one of the most promising media types for immersive
video applications. In this paper, we propose a novel end-to-end
spatial-angular-decorrelated network (SADN) for high-efficiency light field
image compression. Different from the existing methods that exploit either
spatial or angular consistency in the light field image, SADN decouples the
angular and spatial information by dilation convolution and stride convolution
in spatial-angular interaction, and performs feature fusion to compress spatial
and angular information jointly. To train a stable and robust algorithm, a
large-scale dataset consisting of 7549 light field images is proposed and
built. The proposed method provides 2.137 times and 2.849 times higher
compression efficiency relative to H.266/VVC and H.265/HEVC inter coding,
respectively. It also outperforms the end-to-end image compression networks by
an average of 79.6% bitrate saving with much higher subjective quality and
light field consistency.
- Abstract(参考訳): light field imageは没入型ビデオアプリケーションで最も有望なメディアの1つだ。
本稿では,高効率光場画像圧縮のための新しい端から端までの空間角デコラーネットワーク(SADN)を提案する。
光場画像における空間的整合性または角的整合性を利用する既存の方法とは異なり、SADNは空間的角的相互作用における拡張畳み込みとストライド畳み込みによって角的および空間的情報を分離し、空間的および角的情報を共同で圧縮する特徴融合を行う。
安定でロバストなアルゴリズムをトレーニングするために、7549個のライトフィールドイメージからなる大規模データセットを提案し、構築した。
提案手法は, H.266/VVC と H.265/HEVC に対して, それぞれ2.137倍, 2.849倍の圧縮効率を実現する。
また、エンド・ツー・エンドの画像圧縮ネットワークを平均79.6%削減し、主観的品質と光界の整合性が向上した。
関連論文リスト
- MISC: Ultra-low Bitrate Image Semantic Compression Driven by Large Multimodal Model [78.4051835615796]
本稿では,マルチモーダル画像セマンティック圧縮法を提案する。
画像の意味情報を抽出するLMMエンコーダと、その意味に対応する領域を特定するマップエンコーダと、非常に圧縮されたビットストリームを生成する画像エンコーダと、前記情報に基づいて画像を再構成するデコーダとからなる。
知覚50%を節約しながら最適な一貫性と知覚結果を達成することができ、これは次世代のストレージと通信において強力な可能性を持つ。
論文 参考訳(メタデータ) (2024-02-26T17:11:11Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - Learned Focused Plenoptic Image Compression with Microimage
Preprocessing and Global Attention [17.05466366805901]
集光レンズカメラは、光フィールド(LF)の空間情報と角情報を同時に記録することができる。
既存のレンズ画像圧縮法は、マイクロレンズリレー画像によって生じる複雑なマイクロテクスチャと、マイクロイメージ間の長距離相関により、キャプチャ画像に非効率であることを示す。
焦点を絞ったレンズ画像の圧縮を効率よく行うために, エンド・ツー・エンドの学習アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-30T14:24:56Z) - Learning-based Spatial and Angular Information Separation for Light
Field Compression [29.827366575505557]
光場の角情報と空間情報を分離できる新しいニューラルネットワークを提案する。
ネットワークは、全サブアパーチャ画像(SAI)間で共有される空間カーネルを用いて空間情報を表現し、各SAIに対して角カーネルの集合を用いた角情報を表す。
論文 参考訳(メタデータ) (2023-04-13T08:02:38Z) - Learning Non-Local Spatial-Angular Correlation for Light Field Image
Super-Resolution [36.69391399634076]
光場(LF)画像超解像(SR)には空間-角相関の爆発が不可欠である
LF画像SRの非局所的空間角相関を学習するための簡易かつ効果的な手法を提案する。
提案手法は,全角視からの情報を完全に取り入れつつ,極上線に沿った大域的受容場を達成できる。
論文 参考訳(メタデータ) (2023-02-16T03:40:40Z) - Learned Distributed Image Compression with Multi-Scale Patch Matching in
Feature Domai [62.88240343479615]
分散画像圧縮モデルのデコーダの側情報を完全に活用するためのマルチスケール特徴領域マッチング(MSFDPM)を提案する。
MSFDPMは、サイド情報特徴抽出器、マルチスケール機能領域パッチマッチングモジュール、マルチスケール機能融合ネットワークから構成される。
マルチスケールの特徴領域におけるパッチマッチングは,画像領域におけるパッチマッチング手法と比較して圧縮率を約20%向上させる。
論文 参考訳(メタデータ) (2022-09-06T14:06:46Z) - Efficient Light Field Reconstruction via Spatio-Angular Dense Network [14.568586050271357]
光電場再構成のためのエンドツーエンドのSPDense Network(SADenseNet)を提案する。
提案したSADenseNetの最先端性能は,メモリと計算のコストを大幅に削減できることを示す。
その結果, 再構成された光場画像は, 精密で精密であり, 測定関連アプリケーションの精度を向上させるために, プリプロセッシングとして機能することがわかった。
論文 参考訳(メタデータ) (2021-08-08T13:50:51Z) - Learning-Based Practical Light Field Image Compression Using A
Disparity-Aware Model [1.5229257192293197]
本研究では,4次元光場画像の圧縮のための学習型不均一支援モデルを提案する。
モデルはエンドツーエンドのトレーニングが可能で、別のモジュールを手動でチューニングする必要がなくなる。
PSNRとMS-SSIMの指標で比較すると,性能が向上している。
論文 参考訳(メタデータ) (2021-06-22T06:30:25Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Spatial-Angular Attention Network for Light Field Reconstruction [64.27343801968226]
非局所的な光場における対応を知覚する空間角アテンションネットワークを提案する。
非局所的なアテンション機構により、光界の各画素に対するエピポーラ面の全ての位置からの応答を計算するために、空間角アテンションモジュールが導入された。
次に,低空間スケールでの非局所的注意を効果的に実装するためのマルチスケール再構成構造を提案する。
論文 参考訳(メタデータ) (2020-07-05T06:55:29Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。