論文の概要: THDC: Training Hyperdimensional Computing Models with Backpropagation
- arxiv url: http://arxiv.org/abs/2602.00116v1
- Date: Tue, 27 Jan 2026 10:33:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.951958
- Title: THDC: Training Hyperdimensional Computing Models with Backpropagation
- Title(参考訳): THDC:バックプロパゲーションによる超次元計算モデルのトレーニング
- Authors: Hanne Dejonghe, Sam Leroux,
- Abstract要約: 超次元コンピューティング(HDC)は、高次元ベクトルにデータをエンコードすることで、エネルギー制約のあるデバイスに軽量な学習を提供する。
本稿では,バックプロパゲーションによるエンドツーエンドHDCを実現するための訓練可能超次元コンピューティング(THDC)を提案する。
THDCはランダムなベクトルをトレーニング可能な埋め込みに置き換え、クラス表現を最適化する1層バイナリニューラルネットワークを導入している。
- 参考スコア(独自算出の注目度): 5.013248430919224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperdimensional computing (HDC) offers lightweight learning for energy-constrained devices by encoding data into high-dimensional vectors. However, its reliance on ultra-high dimensionality and static, randomly initialized hypervectors limits memory efficiency and learning capacity. Therefore, we propose Trainable Hyperdimensional Computing (THDC), which enables end-to-end HDC via backpropagation. THDC replaces randomly initialized vectors with trainable embeddings and introduces a one-layer binary neural network to optimize class representations. Evaluated on MNIST, Fashion-MNIST and CIFAR-10, THDC achieves equal or better accuracy than state-of-the-art HDC, with dimensionality reduced from 10.000 to 64.
- Abstract(参考訳): 超次元コンピューティング(HDC)は、高次元ベクトルにデータをエンコードすることで、エネルギー制約のあるデバイスに軽量な学習を提供する。
しかし、超高次元および静的、ランダムに初期化されたハイパーベクトルに依存しているため、メモリ効率と学習能力は制限される。
そこで本稿では,バックプロパゲーションによるエンドツーエンドHDCを実現するためのトレーニング可能超次元コンピューティング(THDC)を提案する。
THDCはランダムに初期化されたベクトルをトレーニング可能な埋め込みに置き換え、クラス表現を最適化する1層バイナリニューラルネットワークを導入している。
MNIST、Fashion-MNIST、CIFAR-10で評価され、THDCは最先端のHDCと同等かそれ以上の精度を達成し、次元は10000から64に減少する。
関連論文リスト
- Protocol Models: Scaling Decentralized Training with Communication-Efficient Model Parallelism [59.79227116582264]
モデルスケーリングはディープラーニングの大幅な進歩につながったが、これらのモデルを分散環境でトレーニングすることは依然として難しい。
本研究では,前処理と後処理の両方を圧縮し,最大99%の圧縮が可能となる新しい圧縮アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-02T02:19:22Z) - FFT-based Dynamic Subspace Selection for Low-Rank Adaptive Optimization of Large Language Models [49.397861654088636]
低次元空間へのSVD/QRベースの勾配射影を近似する2段階の手順を提案する。
当社の戦略はランタイムの高速化とメモリ使用量の削減を,さまざまなモデルサイズで最大25%削減できることが示されています。
論文 参考訳(メタデータ) (2025-05-23T14:37:00Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - uHD: Unary Processing for Lightweight and Dynamic Hyperdimensional
Computing [1.7118124088316602]
超次元計算(Hyperdimensional Computing、HDC)は、超ベクトルと呼ばれる長次元ベクトルを扱う新しい計算パラダイムである。
本稿では,低差分シーケンスを用いてHDCの強度と位置のハイパーベクターを生成する方法を示す。
論文の中ではじめて,本提案手法では,データの効率的な符号化に一元ビットストリームを用いた軽量なベクトル生成器を用いる。
論文 参考訳(メタデータ) (2023-11-16T06:28:19Z) - Efficient Hyperdimensional Computing [4.8915861089531205]
我々は,2次元超ベクトルを用いたHDCモデルを,最先端HDCモデルよりも桁違いに低次元で開発する。
例えば、MNISTデータセットでは、次元が64の画像分類において91.12%のHDC精度を達成する。
論文 参考訳(メタデータ) (2023-01-26T02:22:46Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - EnHDC: Ensemble Learning for Brain-Inspired Hyperdimensional Computing [2.7462881838152913]
本稿では,超次元コンピューティングの文脈において,アンサンブル学習を探求する最初の試みについて述べる。
本稿では,EnHDCと呼ばれる最初のアンサンブルHDCモデルを提案する。
本研究では,1つのHDC分類器に対して平均3.2%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-25T09:54:00Z) - Classification using Hyperdimensional Computing: A Review [16.329917143918028]
本稿では,HDコンピューティングの背景について紹介し,データ表現,データ変換,類似度測定について概説する。
評価の結果、HDコンピューティングは文字、信号、画像の形でのデータを用いて問題に対処する上で大きな可能性を示唆している。
論文 参考訳(メタデータ) (2020-04-19T23:51:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。