論文の概要: Efficient Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2301.10902v2
- Date: Thu, 12 Oct 2023 05:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 15:45:03.074788
- Title: Efficient Hyperdimensional Computing
- Title(参考訳): 効率的な超次元計算
- Authors: Zhanglu Yan, Shida Wang, Kaiwen Tang, Weng-Fai Wong
- Abstract要約: 我々は,2次元超ベクトルを用いたHDCモデルを,最先端HDCモデルよりも桁違いに低次元で開発する。
例えば、MNISTデータセットでは、次元が64の画像分類において91.12%のHDC精度を達成する。
- 参考スコア(独自算出の注目度): 4.8915861089531205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperdimensional computing (HDC) is a method to perform classification that
uses binary vectors with high dimensions and the majority rule. This approach
has the potential to be energy-efficient and hence deemed suitable for
resource-limited platforms due to its simplicity and massive parallelism.
However, in order to achieve high accuracy, HDC sometimes uses hypervectors
with tens of thousands of dimensions. This potentially negates its efficiency
advantage. In this paper, we examine the necessity of such high dimensions and
conduct a detailed theoretical analysis of the relationship between hypervector
dimensions and accuracy. Our results demonstrate that as the dimension of the
hypervectors increases, the worst-case/average-case HDC prediction accuracy
with the majority rule decreases. Building on this insight, we develop HDC
models that use binary hypervectors with dimensions orders of magnitude lower
than those of state-of-the-art HDC models while maintaining equivalent or even
improved accuracy and efficiency. For instance, on the MNIST dataset, we
achieve 91.12% HDC accuracy in image classification with a dimension of only
64. Our methods perform operations that are only 0.35% of other HDC models with
dimensions of 10,000. Furthermore, we evaluate our methods on ISOLET, UCI-HAR,
and Fashion-MNIST datasets and investigate the limits of HDC computing.
- Abstract(参考訳): 超次元計算 (HDC) は、高次元と多数ルールを持つ二進ベクトルを用いた分類を行う方法である。
このアプローチはエネルギー効率が高い可能性があり、従ってリソース制限されたプラットフォームに適していると考えられる。
しかし、高い精度を達成するために、HDCは数万次元の超ベクトルを使用することがある。
これにより効率性が損なわれる可能性がある。
本稿では,そのような高次元の必要性を考察し,超ベクトル次元と精度の関係を詳細に理論的に解析する。
その結果, ハイパーベクトルの次元が大きくなるにつれて, 最短ケース/平均ケースのHDC予測精度が低下することがわかった。
この知見に基づいて,2次元ハイパーベクターを用いたHDCモデルを構築し,精度と効率を同等あるいは改善しつつ,最先端のHDCモデルよりも桁違いに低次元のHDCモデルを開発した。
例えば、MNISTデータセットでは、次元が64の画像分類において91.12%のHDC精度を達成する。
提案手法は, 他のHDCモデルの0.35%の次元を持つ演算を実行する。
さらに,本手法をISOLET,UCI-HAR,Fashion-MNISTデータセット上で評価し,HDC計算の限界について検討した。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - MicroHD: An Accuracy-Driven Optimization of Hyperdimensional Computing Algorithms for TinyML systems [8.54897708375791]
超次元コンピューティング(HDC)は、TinyMLアプリケーションを効果的にターゲットできる有望なAIアプローチとして登場しつつある。
HDCの以前の研究は、超次元空間の標準10k次元をはるかに低い値に制限することは可能であることを示した。
論文 参考訳(メタデータ) (2024-03-24T02:45:34Z) - uHD: Unary Processing for Lightweight and Dynamic Hyperdimensional
Computing [1.7118124088316602]
超次元計算(Hyperdimensional Computing、HDC)は、超ベクトルと呼ばれる長次元ベクトルを扱う新しい計算パラダイムである。
本稿では,低差分シーケンスを用いてHDCの強度と位置のハイパーベクターを生成する方法を示す。
論文の中ではじめて,本提案手法では,データの効率的な符号化に一元ビットストリームを用いた軽量なベクトル生成器を用いる。
論文 参考訳(メタデータ) (2023-11-16T06:28:19Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - EnHDC: Ensemble Learning for Brain-Inspired Hyperdimensional Computing [2.7462881838152913]
本稿では,超次元コンピューティングの文脈において,アンサンブル学習を探求する最初の試みについて述べる。
本稿では,EnHDCと呼ばれる最初のアンサンブルHDCモデルを提案する。
本研究では,1つのHDC分類器に対して平均3.2%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-25T09:54:00Z) - Understanding Hyperdimensional Computing for Parallel Single-Pass
Learning [47.82940409267635]
我々はHDCがハードウェア効率を保ちながら、最先端のHDCモデルよりも最大7.6%性能が高いことを示す。
本稿では,HDC の限界を超える新しいクラス VSA,有限群 VSA を提案する。
実験の結果, RFF法とグループVSAはともに最先端HDCモデルより最大7.6%優れていた。
論文 参考訳(メタデータ) (2022-02-10T02:38:56Z) - Visual Cluster Separation Using High-Dimensional Sharpened
Dimensionality Reduction [65.80631307271705]
高次元シャープ化DR(HD-SDR)は、合成データセットと実世界のデータセットの両方で試験される。
提案手法は,高品質(品質指標による測定)を達成し,大規模高次元データを用いて計算的に精度よくスケールする。
具体的な応用を説明するため,近年の天文カタログにHD-SDRを適用した。
論文 参考訳(メタデータ) (2021-10-01T11:13:51Z) - Hypervector Design for Efficient Hyperdimensional Computing on Edge
Devices [0.20971479389679334]
本稿では,超ベクトル次元を最小化し,精度を保ち,分類器の堅牢性を向上する手法を提案する。
提案手法は,従来のhdcで達成した精度を維持しつつ,32倍以上の超ベクトル次元を減少させる。
商用ハードウェアプラットフォーム上での実験により,提案手法はモデルサイズ,推測時間,エネルギー消費を1桁以上削減できることがわかった。
論文 参考訳(メタデータ) (2021-03-08T05:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。