論文の概要: COIN++: Data Agnostic Neural Compression
- arxiv url: http://arxiv.org/abs/2201.12904v1
- Date: Sun, 30 Jan 2022 20:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 14:38:35.397383
- Title: COIN++: Data Agnostic Neural Compression
- Title(参考訳): coin++: データ非依存のニューラル圧縮
- Authors: Emilien Dupont, Hrushikesh Loya, Milad Alizadeh, Adam Goli\'nski, Yee
Whye Teh, Arnaud Doucet
- Abstract要約: COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
- 参考スコア(独自算出の注目度): 55.27113889737545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural compression algorithms are typically based on autoencoders that
require specialized encoder and decoder architectures for different data
modalities. In this paper, we propose COIN++, a neural compression framework
that seamlessly handles a wide range of data modalities. Our approach is based
on converting data to implicit neural representations, i.e. neural functions
that map coordinates (such as pixel locations) to features (such as RGB
values). Then, instead of storing the weights of the implicit neural
representation directly, we store modulations applied to a meta-learned base
network as a compressed code for the data. We further quantize and entropy code
these modulations, leading to large compression gains while reducing encoding
time by two orders of magnitude compared to baselines. We empirically
demonstrate the effectiveness of our method by compressing various data
modalities, from images to medical and climate data.
- Abstract(参考訳): ニューラル圧縮アルゴリズムは典型的には、異なるデータモダリティのために特別なエンコーダとデコーダアーキテクチャを必要とするオートエンコーダに基づいている。
本稿では,幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークであるCOIN++を提案する。
我々のアプローチは、データを暗黙のニューラル表現、すなわち座標(ピクセル位置など)を特徴(RGB値など)にマッピングするニューラル関数に変換することに基づいている。
そして、暗黙のニューラルネットワーク表現の重みを直接記憶する代わりに、メタ学習ベースネットワークに適用された変調をデータの圧縮コードとして保存する。
さらに、これらの変調の量子化とエントロピー化を行い、ベースラインに比べて符号化時間を2桁減らしながら大きな圧縮ゲインをもたらす。
画像から医療・気候データまで,様々なデータモダリティを圧縮することにより,本手法の有効性を実証的に実証する。
関連論文リスト
- Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Neural-based Compression Scheme for Solar Image Data [8.374518151411612]
我々は、NASAのデータ集約画像ミッションで使用されるニューラルネットワークに基づく損失圧縮手法を提案する。
本研究では,画像の局所構造と大域構造の両方を捉えるために,局所的および非局所的アテンションモジュールを備えた逆トレーニングニューラルネットワークを提案する。
このアルゴリズムをSDOデータ解析に使用するための概念実証として、圧縮画像を用いてコロナホール(CH)検出を行った。
論文 参考訳(メタデータ) (2023-11-06T04:13:58Z) - Compression with Bayesian Implicit Neural Representations [16.593537431810237]
本稿では,データに変分ニューラルネットワークをオーバーフィッティングし,相対エントロピー符号化を用いて近似後重みサンプルを圧縮し,量子化やエントロピー符号化を行う。
実験により,本手法は単純さを維持しつつ,画像および音声の圧縮に強い性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-05-30T16:29:52Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Training and Generating Neural Networks in Compressed Weight Space [9.952319575163607]
間接エンコーディングやウェイト行列のエンドツーエンド圧縮は、そのようなアプローチをスケールするのに役立ちます。
私たちのゴールは、文字レベルの言語モデリングのためのリカレントニューラルネットワークから始まる、このトピックに関する議論を開くことです。
論文 参考訳(メタデータ) (2021-12-31T16:50:31Z) - Implicit Neural Video Compression [17.873088127087605]
暗黙的なニューラル表現で全解像度映像列を圧縮する手法を提案する。
各フレームは、座標位置をピクセル値にマッピングするニューラルネットワークとして表現される。
我々は、異なる暗黙ネットワークを用いて座標入力を変調し、フレーム間の効率的な動き補償を可能にする。
論文 参考訳(メタデータ) (2021-12-21T15:59:00Z) - Dynamic Neural Representational Decoders for High-Resolution Semantic
Segmentation [98.05643473345474]
動的ニューラル表現デコーダ(NRD)と呼ばれる新しいデコーダを提案する。
エンコーダの出力上の各位置がセマンティックラベルの局所的なパッチに対応するので、この研究では、これらの局所的なパッチをコンパクトなニューラルネットワークで表現する。
このニューラル表現により、意味ラベル空間に先行する滑らかさを活用することができ、デコーダをより効率的にすることができる。
論文 参考訳(メタデータ) (2021-07-30T04:50:56Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。