論文の概要: Modality-Agnostic Variational Compression of Implicit Neural
Representations
- arxiv url: http://arxiv.org/abs/2301.09479v3
- Date: Fri, 7 Apr 2023 11:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 14:55:36.511507
- Title: Modality-Agnostic Variational Compression of Implicit Neural
Representations
- Title(参考訳): 含意神経表現のモダリティ非依存的変動圧縮
- Authors: Jonathan Richard Schwarz and Jihoon Tack and Yee Whye Teh and Jaeho
Lee and Jinwoo Shin
- Abstract要約: Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
- 参考スコア(独自算出の注目度): 96.35492043867104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a modality-agnostic neural compression algorithm based on a
functional view of data and parameterised as an Implicit Neural Representation
(INR). Bridging the gap between latent coding and sparsity, we obtain compact
latent representations non-linearly mapped to a soft gating mechanism. This
allows the specialisation of a shared INR network to each data item through
subnetwork selection. After obtaining a dataset of such latent representations,
we directly optimise the rate/distortion trade-off in a modality-agnostic space
using neural compression. Variational Compression of Implicit Neural
Representations (VC-INR) shows improved performance given the same
representational capacity pre quantisation while also outperforming previous
quantisation schemes used for other INR techniques. Our experiments demonstrate
strong results over a large set of diverse modalities using the same algorithm
without any modality-specific inductive biases. We show results on images,
climate data, 3D shapes and scenes as well as audio and video, introducing
VC-INR as the first INR-based method to outperform codecs as well-known and
diverse as JPEG 2000, MP3 and AVC/HEVC on their respective modalities.
- Abstract(参考訳): 本稿では,データの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを導入し,インプリシットニューラル表現(INR)としてパラメータ化する。
潜在符号化とスパーシティのギャップを橋渡しし,ソフトゲーティング機構に非線形にマッピングされたコンパクトな潜在表現を得る。
これにより、サブネットワーク選択を通じて各データ項目に共有INRネットワークを特殊化することができる。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモダリティ非依存空間におけるレート/ディストリクトトレードオフを直接最適化する。
Inlicit Neural Representation (VC-INR) の変動圧縮は、同じ表現能力の事前量子化による性能の向上と、他のINR技術で使用される以前の量子化方式よりも優れていた。
実験では,モーダリティ固有の帰納バイアスを伴わない同じアルゴリズムを用いて,多種多様なモーダリティに対して強い結果を示す。
画像, 気候データ, 3次元形状, 映像, 音声, 映像に, JPEG 2000, MP3, AVC/HEVCなどの多種多様なコーデックよりも優れたVC-INRを導入した。
関連論文リスト
- Releasing the Parameter Latency of Neural Representation for High-Efficiency Video Compression [18.769136361963472]
暗黙的ニューラル表現(INR)技術は、ビデオ全体を基本単位としてモデル化し、フレーム内およびフレーム間の相関を自動的にキャプチャする。
本稿では,INRビデオ圧縮の速度歪み特性を大幅に向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T15:19:31Z) - NVRC: Neural Video Representation Compression [13.131842990481038]
我々は、新しいINRベースのビデオ圧縮フレームワーク、Neural Video Representation Compression (NVRC)を提案する。
NVRCは初めて、INRベースのビデオをエンドツーエンドで最適化することができる。
実験の結果,NVRCは従来のベンチマークエントロピーよりも優れていた。
論文 参考訳(メタデータ) (2024-09-11T16:57:12Z) - NERV++: An Enhanced Implicit Neural Video Representation [11.25130799452367]
強調された暗黙的ニューラルビデオ表現であるNeRV++のニューラル表現を導入する。
NeRV++は、オリジナルのNeRVデコーダアーキテクチャよりも単純だが効果的な拡張である。
提案手法をUVG,MCL JVC,Bunnyのデータセット上で評価し,INRによる映像圧縮の競合性を実現する。
論文 参考訳(メタデータ) (2024-02-28T13:00:32Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Sobolev Training for Implicit Neural Representations with Approximated
Image Derivatives [12.71676484494428]
ニューラルネットワークによってパラメータ化されたインプシットニューラルネットワーク表現(INR)は、さまざまな種類の信号を表現するための強力なツールとして登場した。
ニューラルネットワークにおける画像値に加えて、画像の微分を符号化するために、ターゲット出力が画像画素であるINRのトレーニングパラダイムを提案する。
トレーニングパラダイムをどのように活用して、典型的なINR(画像回帰と逆レンダリング)の問題を解決するかを示す。
論文 参考訳(メタデータ) (2022-07-21T10:12:41Z) - Neural Data-Dependent Transform for Learned Image Compression [72.86505042102155]
ニューラルデータに依存した変換を構築し,各画像の符号化効率を最適化する連続オンラインモード決定機構を導入する。
実験の結果,提案したニューラルシンタクス設計と連続オンラインモード決定機構の有効性が示された。
論文 参考訳(メタデータ) (2022-03-09T14:56:48Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Generalized Octave Convolutions for Learned Multi-Frequency Image
Compression [20.504561050200365]
本稿では,初めて学習されたマルチ周波数画像圧縮とエントロピー符号化手法を提案する。
これは最近開発されたオクターブの畳み込みに基づいて、潜水剤を高周波(高分解能)成分に分解する。
提案した一般化オクターブ畳み込みは、他のオートエンコーダベースのコンピュータビジョンタスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-24T01:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。