論文の概要: Learned layered coding for Successive Refinement in the Wyner-Ziv
Problem
- arxiv url: http://arxiv.org/abs/2311.03061v1
- Date: Mon, 6 Nov 2023 12:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-07 14:38:06.217412
- Title: Learned layered coding for Successive Refinement in the Wyner-Ziv
Problem
- Title(参考訳): Wyner-Ziv問題における逐次リファインメントのための階層符号化の学習
- Authors: Boris Joukovsky and Brent De Weerdt and Nikos Deligiannis
- Abstract要約: 本稿では,連続したソースのプログレッシブエンコーディングを明示的に学習するためのデータ駆動型アプローチを提案する。
この設定は、Wyner-Ziv符号問題の連続的な改善を指す。
我々は、RNNがスケーラブルなネスト量子化と同様の層状ビニングソリューションを明示的に検索できることを実証した。
- 参考スコア(独自算出の注目度): 18.134147308944446
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a data-driven approach to explicitly learn the progressive
encoding of a continuous source, which is successively decoded with increasing
levels of quality and with the aid of correlated side information. This setup
refers to the successive refinement of the Wyner-Ziv coding problem. Assuming
ideal Slepian-Wolf coding, our approach employs recurrent neural networks
(RNNs) to learn layered encoders and decoders for the quadratic Gaussian case.
The models are trained by minimizing a variational bound on the rate-distortion
function of the successively refined Wyner-Ziv coding problem. We demonstrate
that RNNs can explicitly retrieve layered binning solutions akin to scalable
nested quantization. Moreover, the rate-distortion performance of the scheme is
on par with the corresponding monolithic Wyner-Ziv coding approach and is close
to the rate-distortion bound.
- Abstract(参考訳): 本稿では,データ駆動型手法を用いて,品質の上昇と相関する側情報の助けを借りて逐次復号化される連続音源のプログレッシブエンコーディングを明示的に学習する手法を提案する。
この設定は、Wyner-Ziv符号問題の連続的な改善を指す。
理想的なSlepian-Wolf符号を仮定すると、我々は2次ガウスの場合の層付きエンコーダとデコーダを学ぶためにリカレントニューラルネットワーク(RNN)を用いる。
モデルは、連続的に洗練されたwyner-ziv符号化問題のレートゆらぎ関数の変動境界を最小化することによって訓練される。
我々は、RNNがスケーラブルなネスト量子化と同様の層状ビニングソリューションを明示的に検索できることを実証した。
さらに、このスキームの速度歪み性能は、対応するモノリシックWyner-Ziv符号法と同等であり、速度歪み境界に近い。
関連論文リスト
- Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - The END: An Equivariant Neural Decoder for Quantum Error Correction [73.4384623973809]
データ効率のよいニューラルデコーダを導入し、この問題の対称性を活用する。
本稿では,従来のニューラルデコーダに比べて精度の高い新しい同変アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-14T19:46:39Z) - Denoising Diffusion Error Correction Codes [92.10654749898927]
近年、ニューラルデコーダは古典的デコーダ技術に対する優位性を実証している。
最近の最先端のニューラルデコーダは複雑で、多くのレガシデコーダの重要な反復的スキームが欠如している。
本稿では,任意のブロック長の線形符号のソフトデコードにデノナイズ拡散モデルを適用することを提案する。
論文 参考訳(メタデータ) (2022-09-16T11:00:50Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Boost decoding performance of finite geometry LDPC codes with deep
learning tactics [3.1519370595822274]
有限幾何LDPC符号のクラスに対して,低複雑かつ高性能なデコーダを求める。
高品質なトレーニングデータを効果的に生成する方法について詳述する。
論文 参考訳(メタデータ) (2022-05-01T14:41:16Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - FAID Diversity via Neural Networks [23.394836086114413]
LDPC(Low-Density Parity Check)符号のための有限アルファベット反復デコーダ(FAID)のデコーダの多様性を設計する新しいアプローチを提案する。
提案するデコーダの多様性は、繰り返し量子化ニューラルネットワーク(RQNN)をトレーニングしてFAIDを学習・設計することで達成される。
論文 参考訳(メタデータ) (2021-05-10T05:14:42Z) - A Learning-Based Approach to Address Complexity-Reliability Tradeoff in
OS Decoders [32.35297363281744]
本稿では,人工ニューラルネットワークを用いて順序統計に基づくデコーダの必要な順序を予測することで,平均的複雑性やデコーダの遅延を低減できることを示した。
論文 参考訳(メタデータ) (2021-03-05T18:22:20Z) - Short-Term Memory Optimization in Recurrent Neural Networks by
Autoencoder-based Initialization [79.42778415729475]
線形オートエンコーダを用いた列列の明示的暗記に基づく代替解を提案する。
このような事前学習が、長いシーケンスで難しい分類タスクを解くのにどのように役立つかを示す。
提案手法は, 長周期の復元誤差をはるかに小さくし, 微調整時の勾配伝播を良くすることを示す。
論文 参考訳(メタデータ) (2020-11-05T14:57:16Z) - Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip [41.28049430114734]
本稿では、ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を改善するために、Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新しい正規化手法を提案する。
我々のIABFは、圧縮と誤り訂正のベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることができる。
論文 参考訳(メタデータ) (2020-04-03T10:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。