論文の概要: Learning Representations for CSI Adaptive Quantization and Feedback
- arxiv url: http://arxiv.org/abs/2207.06924v1
- Date: Wed, 13 Jul 2022 08:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 09:58:48.405129
- Title: Learning Representations for CSI Adaptive Quantization and Feedback
- Title(参考訳): CSI適応量子化とフィードバックのための学習表現
- Authors: Valentina Rizzello, Matteo Nerini, Michael Joham, Bruno Clerckx and
Wolfgang Utschick
- Abstract要約: 本稿では,周波数分割二重化システムにおける適応量子化とフィードバックの効率的な手法を提案する。
既存の研究は主に、CSI圧縮のためのオートエンコーダ(AE)ニューラルネットワークの実装に焦点を当てている。
1つはポストトレーニング量子化に基づくもので、もう1つはAEのトレーニング中にコードブックが見つかる方法である。
- 参考スコア(独自算出の注目度): 51.14360605938647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose an efficient method for channel state information
(CSI) adaptive quantization and feedback in frequency division duplexing (FDD)
systems. Existing works mainly focus on the implementation of autoencoder (AE)
neural networks (NNs) for CSI compression, and consider straightforward
quantization methods, e.g., uniform quantization, which are generally not
optimal. With this strategy, it is hard to achieve a low reconstruction error,
especially, when the available number of bits reserved for the latent space
quantization is small. To address this issue, we recommend two different
methods: one based on a post training quantization and the second one in which
the codebook is found during the training of the AE. Both strategies achieve
better reconstruction accuracy compared to standard quantization techniques.
- Abstract(参考訳): 本研究では,周波数分割二重化(fdd)システムにおけるチャネル状態情報(csi)適応量子化とフィードバックの効率的な手法を提案する。
既存の研究は主に、CSI圧縮のためのオートエンコーダ(AE)ニューラルネットワーク(NN)の実装に重点を置いており、一般に最適ではない一様量子化など、単純な量子化手法を検討する。
この戦略では、特に潜在空間量子化のために予約されたビット数が小さい場合、低い再構成誤差を達成することは困難である。
この問題に対処するために,我々は,ポストトレーニングの量子化に基づく方法と,aeの訓練中にコードブックが見つかる方法の2つを推奨する。
どちらの戦略も標準的な量子化技術よりも精度が良い。
関連論文リスト
- Enhancing the performance of Variational Quantum Classifiers with hybrid autoencoders [0.0]
本稿では,特定の量子埋め込みを考慮し,与えられたデータセットの次元性を低減する方法を提案する。
この方法は、VQCを用いた量子機械学習をより汎用的で高次元のデータセットに効果的にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-05T08:51:20Z) - Quantification using Permutation-Invariant Networks based on Histograms [47.47360392729245]
量子化とは、モデルが与えられたサンプルの袋の中で各クラスの有病率を予測するために訓練される教師付き学習タスクである。
本稿では、対称的教師あり手法の適用が可能なシナリオにおいて、量子化タスクへのディープニューラルネットワークの適用について検討する。
ヒストグラムに基づく置換不変表現に依存する新しいニューラルアーキテクチャHistNetQを提案する。
論文 参考訳(メタデータ) (2024-03-22T11:25:38Z) - Quantization Adaptor for Bit-Level Deep Learning-Based Massive MIMO CSI
Feedback [9.320559153486885]
大規模なマルチインプット多重出力(MIMO)システムでは、ユーザ機器(UE)は、以下のビームフォーミングのために、チャネル状態情報(CSI)を基地局(BS)に返送する必要がある。
深層学習(DL)に基づく手法は、UEでCSIを圧縮し、BSで回復し、フィードバックコストを大幅に削減することができる。
本稿では,ビットレベルDLベースのCSIフィードバックに対する適応型量子化手法を提案する。
論文 参考訳(メタデータ) (2022-11-05T16:30:59Z) - A Comprehensive Survey on Model Quantization for Deep Neural Networks in
Image Classification [0.0]
有望なアプローチは量子化であり、完全な精度の値は低ビット幅の精度で保存される。
本稿では、画像分類に焦点をあてて、量子化の概念と方法に関する包括的調査を行う。
本稿では,量子化DNNにおける浮動小数点演算の低コストなビット演算への置き換えと,量子化における異なる層の感度について説明する。
論文 参考訳(メタデータ) (2022-05-14T15:08:32Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z) - Training Multi-bit Quantized and Binarized Networks with A Learnable
Symmetric Quantizer [1.9659095632676098]
リソース制約のあるデバイスやクラウドプラットフォームにそれらをデプロイするには、ディープニューラルネットワークの重み付けとアクティベーションの定量化が不可欠だ。
双対化は量子化の特別な場合であるが、この極端な場合はしばしばいくつかの訓練の困難をもたらす。
双対化の困難を克服するため,uniq と呼ばれる統一量子化フレームワークを開発した。
論文 参考訳(メタデータ) (2021-04-01T02:33:31Z) - DAQ: Distribution-Aware Quantization for Deep Image Super-Resolution
Networks [49.191062785007006]
画像超解像のための深い畳み込みニューラルネットワークの定量化は、計算コストを大幅に削減する。
既存の作業は、4ビット以下の超低精度の厳しい性能低下に苦しむか、または性能を回復するために重い微調整プロセスを必要とします。
高精度なトレーニングフリー量子化を実現する新しい分散認識量子化方式(DAQ)を提案する。
論文 参考訳(メタデータ) (2020-12-21T10:19:42Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z) - Gradient $\ell_1$ Regularization for Quantization Robustness [70.39776106458858]
トレーニング後の量子化に対するロバスト性を改善するための単純な正規化スキームを導出する。
量子化対応ネットワークをトレーニングすることにより、異なるビット幅にオンデマンドで量子化できる1組の重みを格納できる。
論文 参考訳(メタデータ) (2020-02-18T12:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。