論文の概要: Fibbinary-Based Compression and Quantization for Efficient Neural Radio Receivers
- arxiv url: http://arxiv.org/abs/2511.01921v1
- Date: Sat, 01 Nov 2025 22:39:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.591408
- Title: Fibbinary-Based Compression and Quantization for Efficient Neural Radio Receivers
- Title(参考訳): 効率的なニューラルラジオ受信者のためのファイルベース圧縮と量子化
- Authors: Roberta Fiandaca, Manil Dev Gomony,
- Abstract要約: 本稿では,量子化と圧縮の2つの最適化手法について検討する。
フィボナッチ符号ワード量子化(FCQ)のような一様量子化と非一様量子化の両方を導入する。
次に、上述の量子化技術がもたらす損失を補うために、インクリメンタルネットワーク量子化(INQ)戦略に対する新しいきめ細かいアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.6372261626436676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural receivers have shown outstanding performance compared to the conventional ones but this comes with a high network complexity leading to a heavy computational cost. This poses significant challenges in their deployment on hardware-constrained devices. To address the issue, this paper explores two optimization strategies: quantization and compression. We introduce both uniform and non-uniform quantization such as the Fibonacci Code word Quantization (FCQ). A novel fine-grained approach to the Incremental Network Quantization (INQ) strategy is then proposed to compensate for the losses introduced by the above mentioned quantization techniques. Additionally, we introduce two novel lossless compression algorithms that effectively reduce the memory size by compressing sequences of Fibonacci quantized parameters characterized by a huge redundancy. The quantization technique provides a saving of 45\% and 44\% in the multiplier's power and area, respectively, and its combination with the compression determines a 63.4\% reduction in memory footprint, while still providing higher performances than a conventional receiver.
- Abstract(参考訳): ニューラル受信機は従来の受信機に比べて優れた性能を示してきたが、これは計算コストの増大につながるネットワークの複雑さが伴う。
これは、ハードウェアに制約のあるデバイスへのデプロイメントにおいて、大きな課題となる。
そこで本研究では,量子化と圧縮という2つの最適化手法を提案する。
フィボナッチ符号ワード量子化(FCQ)のような一様および非一様量子化を導入する。
次に、上述の量子化技術がもたらす損失を補うために、インクリメンタルネットワーク量子化(INQ)戦略に対する新しいきめ細かいアプローチを提案する。
さらに、大きな冗長性によって特徴付けられるフィボナッチ量子化パラメータの列を圧縮することにより、メモリサイズを効果的に削減する2つの新しいロスレス圧縮アルゴリズムを導入する。
量子化技術は乗算器の電力と面積の45.%と44.%の節約を提供し、圧縮と組み合わせることで記憶フットプリントが63.4.%削減され、従来の受信機よりも高い性能を提供する。
関連論文リスト
- Integrating Pruning with Quantization for Efficient Deep Neural Networks Compression [0.0]
プルーニングと量子化は、モデルのサイズを減らし、処理速度を向上させるために広く使われている圧縮技術である。
本稿では,類似性に基づくフィルタプルーニングとアダプティブ・パワー・オブ・ツー(APoT)量子化を統合し,高い圧縮効率を実現する2つの手法を提案する。
実験により,提案手法は精度の低下を最小限に抑え,効率的なモデル圧縮を実現することを示す。
論文 参考訳(メタデータ) (2025-09-04T14:17:28Z) - Reducing Storage of Pretrained Neural Networks by Rate-Constrained Quantization and Entropy Coding [56.066799081747845]
成長を続けるニューラルネットワークのサイズは、リソースに制約のあるデバイスに深刻な課題をもたらす。
本稿では,レートアウェア量子化とエントロピー符号化を組み合わせた学習後圧縮フレームワークを提案する。
この方法では非常に高速な復号化が可能であり、任意の量子化グリッドと互換性がある。
論文 参考訳(メタデータ) (2025-05-24T15:52:49Z) - GANCompress: GAN-Enhanced Neural Image Compression with Binary Spherical Quantization [0.0]
GANCompressは、二元球量子化(BSQ)とGAN(Generative Adversarial Networks)を組み合わせた新しいニューラル圧縮フレームワークである。
GANCompressは圧縮効率を大幅に向上し、ファイルサイズを最大100倍まで削減し、視覚的歪みを最小限に抑える。
論文 参考訳(メタデータ) (2025-05-19T00:18:27Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - 2DQuant: Low-bit Post-Training Quantization for Image Super-Resolution [83.09117439860607]
低ビット量子化は、エッジ展開のための画像超解像(SR)モデルを圧縮するために広く普及している。
低ビット量子化は、フル精度(FP)と比較してSRモデルの精度を低下させることが知られている。
本稿では2DQuantという画像超解像のための2段階の低ビット後量子化(PTQ)法を提案する。
論文 参考訳(メタデータ) (2024-06-10T06:06:11Z) - Bandwidth-efficient Inference for Neural Image Compression [26.87198174202502]
本稿では,ニューラルデータ圧縮法により圧縮されたアクティベーションを用いた終端から終端までの帯域幅効率のよいニューラル推論法を提案する。
既存のモデル量子化法により最適化され、画像圧縮の低レベルタスクは6.21倍の省エネで最大19倍の帯域幅を削減できる。
論文 参考訳(メタデータ) (2023-09-06T09:31:37Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - PAMS: Quantized Super-Resolution via Parameterized Max Scale [84.55675222525608]
深部畳み込みニューラルネットワーク(DCNN)は超解像処理(SR)において優位な性能を示した
本稿では,PAMS(Parameterized Max Scale)と呼ばれる新しい量子化手法を提案する。
実験により,提案手法はEDSRやRDNなどの既存のSRモデルを適切に圧縮・高速化できることが示された。
論文 参考訳(メタデータ) (2020-11-09T06:16:05Z) - Kernel Quantization for Efficient Network Compression [59.55192551370948]
Kernel Quantization(KQ)は、事前訓練された全精度畳み込みニューラルネットワーク(CNN)モデルを、大幅なパフォーマンス損失のない低精度バージョンに効率的に変換することを目的としている。
重み付けからフィルタプルーニングへの進化に触発され,カーネルレベルと重み付けレベルの両方で定量化することを提案する。
ImageNet分類タスクの実験では、KQはVGGとResNet18でそれぞれ平均1.05ビットと1.62ビットを必要とし、畳み込み層の各パラメータを表す。
論文 参考訳(メタデータ) (2020-03-11T08:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。