論文の概要: An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2205.07920v1
- Date: Mon, 16 May 2022 18:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 00:40:05.725067
- Title: An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing
- Title(参考訳): 超次元計算における循環データから学ぶ基底ハイパーベクトルの拡張
- Authors: Igor Nunes, Mike Heddes, Tony Givargis, Alexandru Nicolau
- Abstract要約: 超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional Computing (HDC) is a computation framework based on
properties of high-dimensional random spaces. It is particularly useful for
machine learning in resource-constrained environments, such as embedded systems
and IoT, as it achieves a good balance between accuracy, efficiency and
robustness. The mapping of information to the hyperspace, named encoding, is
the most important stage in HDC. At its heart are basis-hypervectors,
responsible for representing the smallest units of meaningful information. In
this work we present a detailed study on basis-hypervector sets, which leads to
practical contributions to HDC in general: 1) we propose an improvement for
level-hypervectors, used to encode real numbers; 2) we introduce a method to
learn from circular data, an important type of information never before
addressed in machine learning with HDC. Empirical results indicate that these
contributions lead to considerably more accurate models for both classification
and regression with circular data.
- Abstract(参考訳): hyperdimensional computing (hdc) は、高次元ランダム空間の性質に基づく計算フレームワークである。
これは特に、組み込みシステムやIoTなどのリソース制約のある環境での機械学習に役立ち、正確性、効率、堅牢性のバランスが良好である。
エンコーディングと呼ばれるハイパースペースへの情報のマッピングは、HDCにおいて最も重要な段階である。
中心は基本超ベクトルであり、有意義な情報の最小単位を表す責任がある。
本稿では,基本超ベクトル集合に関する詳細な研究を行い,hdc一般への実際的貢献について述べる。
1)実数値を符号化するレベルハイパーベクターの改良を提案する。
2)hdcを用いた機械学習において,これまで扱ったことのない重要な情報である円形データから学習する手法を提案する。
実験の結果、これらの寄与は円データによる分類と回帰の両方において、かなり正確なモデルをもたらすことが示された。
関連論文リスト
- CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - Streaming Encoding Algorithms for Scalable Hyperdimensional Computing [12.829102171258882]
超次元コンピューティング(Hyperdimensional Computing、HDC)は、計算神経科学を起源とするデータ表現と学習のパラダイムである。
そこで本研究では,ハッシュに基づくストリーミング符号化手法のファミリについて検討する。
我々は,これらの手法が既存の代替手段よりもはるかに効率的でありながら,学習アプリケーションの性能に匹敵する保証を享受できることを正式に示す。
論文 参考訳(メタデータ) (2022-09-20T17:25:14Z) - HDTorch: Accelerating Hyperdimensional Computing with GP-GPUs for Design
Space Exploration [4.783565770657063]
我々は、ハイパーベクタ操作の拡張を備えたPyTorchベースのオープンソースのHDCライブラリであるHDTorchを紹介する。
我々は4つのHDCベンチマークデータセットを精度、実行時間、メモリ消費の観点から分析する。
我々はCHB-MIT脳波てんかんデータベース全体のHDトレーニングと推測分析を行った。
論文 参考訳(メタデータ) (2022-06-09T19:46:08Z) - GraphHD: Efficient graph classification using hyperdimensional computing [58.720142291102135]
本稿では,HDCを用いたグラフ分類のベースライン手法を提案する。
実世界のグラフ分類問題におけるGraphHDの評価を行った。
その結果,最新のグラフニューラルネットワーク (GNN) と比較すると,提案手法の精度は同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T17:32:58Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - HDC-MiniROCKET: Explicit Time Encoding in Time Series Classification
with Hyperdimensional Computing [14.82489178857542]
MiniROCKETは時系列分類の最も優れた方法の1つである。
我々は、超次元計算(HDC)機構を用いて、より優れたグローバル時間符号化を提供するために、このアプローチを拡張した。
HDCの拡張は、推論の計算労力を増大させることなく、時間依存性の高いデータセットに対して、かなり優れた結果が得られる。
論文 参考訳(メタデータ) (2022-02-16T13:33:13Z) - A Survey on Hyperdimensional Computing aka Vector Symbolic
Architectures, Part II: Applications, Cognitive Models, and Challenges [7.240104756698618]
第1部ではHDC/VSAの発展に繋がる歴史的背景について紹介した。
パートIIは、既存のアプリケーション、認知コンピューティングとアーキテクチャにおけるHDC/VSAの役割、そして今後の仕事の方向性を調査します。
論文 参考訳(メタデータ) (2021-11-12T18:21:44Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Classification using Hyperdimensional Computing: A Review [16.329917143918028]
本稿では,HDコンピューティングの背景について紹介し,データ表現,データ変換,類似度測定について概説する。
評価の結果、HDコンピューティングは文字、信号、画像の形でのデータを用いて問題に対処する上で大きな可能性を示唆している。
論文 参考訳(メタデータ) (2020-04-19T23:51:44Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。