論文の概要: Wideband and Entropy-Aware Deep Soft Bit Quantization
- arxiv url: http://arxiv.org/abs/2110.09541v1
- Date: Mon, 18 Oct 2021 18:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 04:46:38.297173
- Title: Wideband and Entropy-Aware Deep Soft Bit Quantization
- Title(参考訳): 広帯域・エントロピー対応深部ソフトビット量子化
- Authors: Marius Arvinte, Jonathan I. Tamir
- Abstract要約: 広帯域チャネル間のソフトビット量子化のための新しいディープラーニングソリューションを提案する。
本手法は、損失関数に対する量子化およびエントロピー対応の強化により、エンドツーエンドで訓練される。
提案手法は,従来の最先端手法と比較して,高SNR方式で最大10 %の圧縮ゲインを実現する。
- 参考スコア(独自算出の注目度): 1.7259824817932292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been recently applied to physical layer processing in
digital communication systems in order to improve end-to-end performance. In
this work, we introduce a novel deep learning solution for soft bit
quantization across wideband channels. Our method is trained end-to-end with
quantization- and entropy-aware augmentations to the loss function and is used
at inference in conjunction with source coding to achieve near-optimal
compression gains over wideband channels. To efficiently train our method, we
prove and verify that a fixed feature space quantization scheme is sufficient
for efficient learning. When tested on channel distributions never seen during
training, the proposed method achieves a compression gain of up to $10 \%$ in
the high SNR regime versus previous state-of-the-art methods. To encourage
reproducible research, our implementation is publicly available at
https://github.com/utcsilab/wideband-llr-deep.
- Abstract(参考訳): 近年,エンド・ツー・エンドの性能向上のために,デジタル通信システムにおける物理層処理にディープラーニングが適用されている。
本稿では,広帯域チャネル間のソフトビット量子化のための新しいディープラーニングソリューションを提案する。
提案手法は,損失関数に対する量子化およびエントロピー認識の強化によるエンドツーエンドの訓練を行い,音源符号化と併用して広帯域チャネル上でのほぼ最適圧縮ゲインを実現する。
提案手法を効果的に学習するために,固定された特徴空間量子化スキームが十分であることを示す。
トレーニング中に見つからなかったチャネル分布をテストすると,提案手法は従来の最先端手法と比較して,高SNR方式で最大10 \%の圧縮ゲインが得られる。
再現可能な研究を促進するため、我々の実装はhttps://github.com/utcsilab/wideband-llr-deepで公開されています。
関連論文リスト
- Accelerating Distributed Deep Learning using Lossless Homomorphic
Compression [17.654138014999326]
本稿では,ワーカレベルの圧縮とネットワーク内アグリゲーションを効果的に融合する新しい圧縮アルゴリズムを提案する。
集約のスループットが6.33$times$改善され、イテレーションごとのトレーニング速度が3.74$times$アップします。
論文 参考訳(メタデータ) (2024-02-12T09:57:47Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Unrolled Compressed Blind-Deconvolution [77.88847247301682]
sparse multi channel blind deconvolution (S-MBD) はレーダー/ソナー/超音波イメージングなどの多くの工学的応用で頻繁に発生する。
そこで本研究では,受信した全信号に対して,はるかに少ない測定値からブラインドリカバリを可能にする圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-09-28T15:16:58Z) - Learning Representations for CSI Adaptive Quantization and Feedback [51.14360605938647]
本稿では,周波数分割二重化システムにおける適応量子化とフィードバックの効率的な手法を提案する。
既存の研究は主に、CSI圧縮のためのオートエンコーダ(AE)ニューラルネットワークの実装に焦点を当てている。
1つはポストトレーニング量子化に基づくもので、もう1つはAEのトレーニング中にコードブックが見つかる方法である。
論文 参考訳(メタデータ) (2022-07-13T08:52:13Z) - Deep Neural Networks and End-to-End Learning for Audio Compression [2.084078990567849]
本稿では,変分オートエンコーダ(VAE)のトレーニング戦略において,リカレントニューラルネットワーク(RNN)と潜時空間のバイナリ表現を組み合わせたエンドツーエンドのディープラーニング手法を提案する。
RNNを用いた1つの音声圧縮モデルのエンドツーエンド学習としてはこれが初めてであり、我々のモデルは20.54のSDR(Signal to Distortion Ratio)を達成する。
論文 参考訳(メタデータ) (2021-05-25T05:36:30Z) - Efficient Distributed Auto-Differentiation [22.192220404846267]
大規模ディープニューラルネットワーク(DNN)をトレーニングするための勾配ベースのアルゴリズムは通信量が多い。
グラデーションよりもコミュニケーションにやさしい分散型DNNをトレーニングするための驚くほど単純な統計を紹介します。
このプロセスは、バックプロパゲーション中のグラデーション平均の柔軟性を提供し、新しい柔軟なトレーニングスキーマを可能にします。
論文 参考訳(メタデータ) (2021-02-18T21:46:27Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - A Variational Information Bottleneck Based Method to Compress Sequential
Networks for Human Action Recognition [9.414818018857316]
本稿では,人間行動認識(HAR)に用いるリカレントニューラルネットワーク(RNN)を効果的に圧縮する手法を提案する。
変分情報ボトルネック(VIB)理論に基づくプルーニング手法を用いて,RNNの逐次セルを流れる情報の流れを小さなサブセットに制限する。
我々は、圧縮を大幅に改善する特定のグループ・ラッソ正規化手法とプルーニング手法を組み合わせる。
提案手法は,UCF11上での動作認識の精度に比較して,最も近い競合に比べて70倍以上の圧縮を実現する。
論文 参考訳(メタデータ) (2020-10-03T12:41:51Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。