論文の概要: Preprocessing operations and the reverse compression
- arxiv url: http://arxiv.org/abs/2101.02277v1
- Date: Wed, 6 Jan 2021 21:39:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 17:41:40.951421
- Title: Preprocessing operations and the reverse compression
- Title(参考訳): 前処理操作と逆圧縮
- Authors: Matheus Capela and Fabio Costa
- Abstract要約: 逆圧縮と呼ばれる新しいデータ圧縮法を提案する。
それは古典的および量子的情報プロセスの両方で機能するように定義される。
本手法の古典的および量子的消去チャネルへの応用例として考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of compression of data -- as stated by the source coding theorem --
is one of the cornerstones of information theory. Data compression usually
exploits statistical redundancies in the data according to its prior
distribution. Motivated by situations where one does not have access to the
statistics of data, but has some information about a transformation that is
going to be applied to it, we propose a novel method for data compression
called reverse compression. It is defined in such a way that works for both
classical and quantum information processes, and furthermore relies exclusively
on the channel to be used: all input data leading to indistinguishable outputs
is compressed to the same state, regardless of their prior distribution.
Moreover, this process can be characterized as a higher order operation within
the type of preprocessing. We also consider as an example the application of
the method to the classical and quantum erasure channel. The examples suggest
that noiseless reverse compression can take place only in trivial cases,
although meaningful instances of noisy reverse compression can exist.
- Abstract(参考訳): 情報源符号化定理によって述べられているように、データの圧縮のタスクは、情報理論の基盤の1つである。
データ圧縮は通常、その以前の分布に従ってデータの統計的冗長性を利用する。
データの統計情報にアクセスできない状況に動機付けられるが,データに適用される変換に関する情報がいくつかあるため,逆圧縮と呼ばれる新しいデータ圧縮手法を提案する。
古典的情報処理と量子的情報処理の両方で動作するように定義されており、さらに使用するチャネルにのみ依存している: 識別不能な出力につながるすべての入力データは、その事前分布に関係なく、同じ状態に圧縮される。
さらに、このプロセスはプリプロセッシングのタイプ内で高次演算として特徴づけることができる。
また,この手法の古典的および量子的消去チャネルへの応用例として考察する。
これらの例は、ノイズのない逆圧縮は自明なケースでのみ起こりうることを示唆するが、ノイズのない逆圧縮の有意義な例が存在する。
関連論文リスト
- Ranking LLMs by compression [13.801767671391604]
圧縮の先駆けとして5つの大きな言語モデルを使用し、課題のある自然言語処理タスクのパフォーマンスを比較します。
実験の結果,圧縮比とモデル性能は正の相関関係にあることが明らかとなった。
論文 参考訳(メタデータ) (2024-06-20T10:23:38Z) - Learned Compression of Encoding Distributions [1.4732811715354455]
エントロピーボトルネックは多くの学習された圧縮モデルで使用される共通成分である。
特定の入力に対する潜在データ分布と一致するように符号化分布を適応させる手法を提案する。
提案手法は,Kodakテストデータセット上でのBjontegaard-Delta(BD)レートの7.10%向上を実現する。
論文 参考訳(メタデータ) (2024-06-18T21:05:51Z) - What Operations can be Performed Directly on Compressed Arrays, and with What Error? [1.3307486544794784]
我々は、圧縮されたデータに直接、数十のかなり基本的な操作を可能にする、損失のある圧縮機を開発した。
3つの非自明なアプリケーション上で評価し、内部表現のために異なる数系を選択する。
論文 参考訳(メタデータ) (2024-06-17T05:01:09Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - DiffRate : Differentiable Compression Rate for Efficient Vision
Transformers [98.33906104846386]
Token圧縮は、プルーニング(ドロップ)やトークンのマージによって、大規模な視覚変換器(ViTなど)を高速化することを目的としている。
DiffRate(ディフレート)は、先行技術にはないいくつかの魅力的な特性を持つ新しいトークン圧縮手法である。
論文 参考訳(メタデータ) (2023-05-29T10:15:19Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Shifted Compression Framework: Generalizations and Improvements [2.2147691173934967]
コミュニケーションは、大規模な機械学習モデルの分散トレーニングにおける重要なボトルネックの1つだ。
勾配やモデルのような交換された情報のロッシー圧縮は、この問題を緩和する最も効果的な手段の1つである。
論文 参考訳(メタデータ) (2022-06-21T15:00:04Z) - Partition and Code: learning how to compress graphs [50.29024357495154]
まず、分割アルゴリズムがグラフを基本構造に分解し、これらを確率分布を学習する小さな辞書の要素にマッピングし、エントロピーエンコーダが表現をビットに変換する。
提案アルゴリズムは,非パラメトリックおよびパラメトリックグラフ圧縮器の異なるファミリーに対して,多種多様な実世界のネットワーク上で定量的に評価し,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2021-07-05T11:41:16Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - The Variational Bandwidth Bottleneck: Stochastic Evaluation on an
Information Budget [164.65771897804404]
多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。
情報ボトルネック法は、これを情報理論最適化問題として定式化する。
本稿では,特権情報の推定値について,各例について決定する帯域幅のばらつきボトルネックを提案する。
論文 参考訳(メタデータ) (2020-04-24T18:29:31Z) - Domain Adaptation Regularization for Spectral Pruning [44.060724281001775]
ドメイン適応(DA)は、ラベル付きソースディストリビューションで学んだ知識を、おそらくラベルなしのターゲットディストリビューションに転送することで、この問題に対処する。
提案手法は,DA設定における既存の圧縮手法よりも高い圧縮率を示す。
本研究は1つの特定の圧縮法に基づくものであるが、DA設定における圧縮を改善するための一般的なガイドラインについても概説する。
論文 参考訳(メタデータ) (2019-12-26T12:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。