論文の概要: Efficient Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2301.10902v1
- Date: Thu, 26 Jan 2023 02:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 14:39:52.124527
- Title: Efficient Hyperdimensional Computing
- Title(参考訳): 効率的な超次元計算
- Authors: Zhanglu Yan, Shida Wang, Kaiwen Tang, Weng-Fai Wong
- Abstract要約: また, 従来のHDCモデルと比較すると, 従来よりもはるかに低次元で, ほぼ同様の, あるいは高い検出精度が得られることを示す。
画像分類では,MNISTデータセットの次元がわずか32のHDC精度96.88%を達成した。
- 参考スコア(独自算出の注目度): 6.2282485136792065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperdimensional computing (HDC) uses binary vectors of high dimensions to
perform classification. Due to its simplicity and massive parallelism, HDC can
be highly energy-efficient and well-suited for resource-constrained platforms.
However, in trading off orthogonality with efficiency, hypervectors may use
tens of thousands of dimensions. In this paper, we will examine the necessity
for such high dimensions. In particular, we give a detailed theoretical
analysis of the relationship among dimensions of hypervectors, accuracy, and
orthogonality. The main conclusion of this study is that a much lower
dimension, typically less than 100, can also achieve similar or even higher
detecting accuracy compared with other state-of-the-art HDC models. Based on
this insight, we propose a suite of novel techniques to build HDC models that
use binary hypervectors of dimensions that are orders of magnitude smaller than
those found in the state-of-the-art HDC models, yet yield equivalent or even
improved accuracy and efficiency. For image classification, we achieved an HDC
accuracy of 96.88\% with a dimension of only 32 on the MNIST dataset. We
further explore our methods on more complex datasets like CIFAR-10 and show the
limits of HDC computing.
- Abstract(参考訳): 超次元計算(HDC)は高次元の2進ベクトルを用いて分類を行う。
その単純さと膨大な並列性のため、HDCはエネルギー効率が高く、資源制約のあるプラットフォームに適している。
しかし、直交性を効率と引き換えに、超ベクトルは数万次元を使用することがある。
本稿では,このような高次元の必要性について検討する。
特に、超ベクトルの次元、精度、直交性の間の関係を詳細に理論的に解析する。
本研究の主な結論は、通常100未満の非常に低い次元でも、他の最先端HDCモデルと比較して、類似またはより高い検出精度が得られることである。
そこで本研究では,従来のHDCモデルよりも桁違いに小さい次元の2次超ベクトルを用いたHDCモデルを構築する手法を提案する。
画像分類では,MNISTデータセットの次元がわずか32のHDC精度96.88\%を達成した。
我々はさらに、CIFAR-10のようなより複雑なデータセットの手法を探求し、HDCコンピューティングの限界を示す。
関連論文リスト
- Value-Based Deep RL Scales Predictably [100.21834069400023]
本研究は, 地域社会が病的行動に不安を抱いているにもかかわらず, 価値に基づく非政治的RL法が予測可能であることを示す。
SAC、BRO、PQLの3つのアルゴリズムを使って、DeepMind Control、OpenAI gym、IsaacGymの3つのアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:59:47Z) - Factorized Implicit Global Convolution for Automotive Computational Fluid Dynamics Prediction [52.32698071488864]
非常に大きな3DメッシュのCFD問題を効率的に解く新しいアーキテクチャであるFactized Implicit Global Convolution (FIGConv)を提案する。
FIGConvは、既存の3DニューラルCFDモデルよりも大幅に改善された2次複雑性の$O(N2)$を達成する。
業界標準のAhmedボディデータセットと大規模DrivAerNetデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:57:57Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - MicroHD: An Accuracy-Driven Optimization of Hyperdimensional Computing Algorithms for TinyML systems [8.54897708375791]
超次元コンピューティング(HDC)は、TinyMLアプリケーションを効果的にターゲットできる有望なAIアプローチとして登場しつつある。
HDCの以前の研究は、超次元空間の標準10k次元をはるかに低い値に制限することは可能であることを示した。
論文 参考訳(メタデータ) (2024-03-24T02:45:34Z) - uHD: Unary Processing for Lightweight and Dynamic Hyperdimensional
Computing [1.7118124088316602]
超次元計算(Hyperdimensional Computing、HDC)は、超ベクトルと呼ばれる長次元ベクトルを扱う新しい計算パラダイムである。
本稿では,低差分シーケンスを用いてHDCの強度と位置のハイパーベクターを生成する方法を示す。
論文の中ではじめて,本提案手法では,データの効率的な符号化に一元ビットストリームを用いた軽量なベクトル生成器を用いる。
論文 参考訳(メタデータ) (2023-11-16T06:28:19Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - EnHDC: Ensemble Learning for Brain-Inspired Hyperdimensional Computing [2.7462881838152913]
本稿では,超次元コンピューティングの文脈において,アンサンブル学習を探求する最初の試みについて述べる。
本稿では,EnHDCと呼ばれる最初のアンサンブルHDCモデルを提案する。
本研究では,1つのHDC分類器に対して平均3.2%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-25T09:54:00Z) - Understanding Hyperdimensional Computing for Parallel Single-Pass
Learning [47.82940409267635]
我々はHDCがハードウェア効率を保ちながら、最先端のHDCモデルよりも最大7.6%性能が高いことを示す。
本稿では,HDC の限界を超える新しいクラス VSA,有限群 VSA を提案する。
実験の結果, RFF法とグループVSAはともに最先端HDCモデルより最大7.6%優れていた。
論文 参考訳(メタデータ) (2022-02-10T02:38:56Z) - Hypervector Design for Efficient Hyperdimensional Computing on Edge
Devices [0.20971479389679334]
本稿では,超ベクトル次元を最小化し,精度を保ち,分類器の堅牢性を向上する手法を提案する。
提案手法は,従来のhdcで達成した精度を維持しつつ,32倍以上の超ベクトル次元を減少させる。
商用ハードウェアプラットフォーム上での実験により,提案手法はモデルサイズ,推測時間,エネルギー消費を1桁以上削減できることがわかった。
論文 参考訳(メタデータ) (2021-03-08T05:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。