論文の概要: LogHD: Robust Compression of Hyperdimensional Classifiers via Logarithmic Class-Axis Reduction
- arxiv url: http://arxiv.org/abs/2511.03938v1
- Date: Thu, 06 Nov 2025 00:33:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.249334
- Title: LogHD: Robust Compression of Hyperdimensional Classifiers via Logarithmic Class-Axis Reduction
- Title(参考訳): LogHD: 対数的クラス軸還元による超次元分類器のロバスト圧縮
- Authors: Sanggeon Yun, Hyunwoo Oh, Ryozo Masukawa, Pietro Mercati, Nathaniel D. Bastian, Mohsen Imani,
- Abstract要約: LogHDは、クラスごとに$C$のプロトタイプを$n!approx!lceillog_kに置き換える対数的なクラス軸の削減である。
データセットとインジェクトされたビットフリップ全体にわたって、LogHDは、より小さなモデルと競合する精度と、一致したメモリでのレジリエンスの向上を実現している。
- 参考スコア(独自算出の注目度): 12.477312277548497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperdimensional computing (HDC) suits memory, energy, and reliability-constrained systems, yet the standard "one prototype per class" design requires $O(CD)$ memory (with $C$ classes and dimensionality $D$). Prior compaction reduces $D$ (feature axis), improving storage/compute but weakening robustness. We introduce LogHD, a logarithmic class-axis reduction that replaces the $C$ per-class prototypes with $n\!\approx\!\lceil\log_k C\rceil$ bundle hypervectors (alphabet size $k$) and decodes in an $n$-dimensional activation space, cutting memory to $O(D\log_k C)$ while preserving $D$. LogHD uses a capacity-aware codebook and profile-based decoding, and composes with feature-axis sparsification. Across datasets and injected bit flips, LogHD attains competitive accuracy with smaller models and higher resilience at matched memory. Under equal memory, it sustains target accuracy at roughly $2.5$-$3.0\times$ higher bit-flip rates than feature-axis compression; an ASIC instantiation delivers $498\times$ energy efficiency and $62.6\times$ speedup over an AMD Ryzen 9 9950X and $24.3\times$/$6.58\times$ over an NVIDIA RTX 4090, and is $4.06\times$ more energy-efficient and $2.19\times$ faster than a feature-axis HDC ASIC baseline.
- Abstract(参考訳): 超次元コンピューティング(HDC)はメモリ、エネルギ、信頼性に制約のあるシステムに適合するが、標準的な「クラスごとに1つのプロトタイプ」設計ではメモリが$O(CD)$(C$クラスと次元が$D$)である。
以前の圧縮では$D$(フィーチャー軸)が削減され、ストレージ/コンピュテーションが改善されるが、ロバスト性は弱まる。
LogHDは、クラス毎の$C$のプロトタイプを$n\!で置き換える対数的なクラス軸の削減である。
\approx\!
\lceil\log_k C\rceil$ bundle hypervectors (alphabet size $k$) and decodes in a $n$-dimensional activation space, cut memory to $O(D\log_k C)$ inserving $D$。
LogHDはキャパシティ対応のコードブックとプロファイルベースのデコードを使い、機能軸のスペーシングで構成する。
データセットとインジェクトされたビットフリップ全体にわたって、LogHDは、より小さなモデルと競合する精度と、一致したメモリでのレジリエンスの向上を実現している。
ASICインスタンス化は、AMD Ryzen 9 9950Xと24.3\times$/6.58\times$/6.58、NVIDIA RTX 4090より4.06\times$エネルギー効率が良く、2.19\times$特徴軸の HDC ASICベースラインより高速な498\times$を提供する。
関連論文リスト
- DecoHD: Decomposed Hyperdimensional Classification under Extreme Memory Budgets [8.226639797032483]
分解は、I/Oを変更することなくディープネットワークを縮小する実証済みの方法である。
本稿では,分解したHDCパラメータ化で直接学習するDecoHDを紹介する。
評価において、DecoHDはわずかな劣化精度で極端なメモリ節約を達成する。
論文 参考訳(メタデータ) (2025-11-05T23:28:02Z) - Proving the Limited Scalability of Centralized Distributed Optimization via a New Lower Bound Construction [57.93371273485736]
我々は、すべての労働者が同一の分布にアクセスする均質な(すなわちd.d.)場合であっても、すべての労働者が非バイアス付き境界 LDeltaepsilon2,$$$$$ のポリ対数的により良いポリ対数を求める集中型分散学習環境を考える。
論文 参考訳(メタデータ) (2025-06-30T13:27:39Z) - Autoencoder-Based Hybrid Replay for Class-Incremental Learning [10.061328213032088]
クラスインクリメンタルラーニング(CIL)では、タスクの混乱と忘れを緩和するために効果的なインクリメンタルラーニング戦略が不可欠である。
本稿では,新しいハイブリット・オートエンコーダ(HAE)を活用して圧縮機として機能する,オートエンコーダベースのハイブリッド・リプレイ(AHR)戦略を提案する。
論文 参考訳(メタデータ) (2025-05-09T09:59:12Z) - Position-Aware Depth Decay Decoding ($D^3$): Boosting Large Language Model Inference Efficiency [26.173523821684306]
トークン配置対応層スキップフレームワークを提案し,性能を維持しつつ1.5倍の演算を効率よく節約する。
7 sim 70$のパラメータを持つ大規模言語モデルの実験では、D3$は完全な推論パイプラインと比較して平均1.5倍のスピードアップを達成することができる。
論文 参考訳(メタデータ) (2025-03-11T15:15:54Z) - Hardware-Aware Parallel Prompt Decoding for Memory-Efficient Acceleration of LLM Inference [23.633481089469836]
LLM(Large Language Models)の自動回帰デコーディングは、ハードウェアの性能に大きなオーバーヘッドをもたらす。
トレーニング可能なパラメータを0.0002$%しか必要とせず,A100-40GBのGPUをたった16時間で効率的にトレーニングできる並列プロンプトデコーディングを提案する。
我々のアプローチでは、最大2.49$times$ スピードアップを示し、最小のメモリオーバーヘッドは0.0004$%である。
論文 参考訳(メタデータ) (2024-05-28T22:19:30Z) - H$_2$O: Heavy-Hitter Oracle for Efficient Generative Inference of Large
Language Models [110.06476624089679]
メモリフットプリントを大幅に削減する新しいKVキャッシュの実装手法を提案する。
我々のアプローチは、トークンのごく一部が、注意点の計算において、ほとんどの価値に寄与する、という観察に基づいている。
我々は,最近のトークンとH$のバランスを動的に保持するKVキャッシュ消去ポリシーであるヘビーヒッター(H$O)を提案する。
論文 参考訳(メタデータ) (2023-06-24T20:11:14Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。