論文の概要: Hyperdimensional Computing vs. Neural Networks: Comparing Architecture
and Learning Process
- arxiv url: http://arxiv.org/abs/2207.12932v1
- Date: Sun, 24 Jul 2022 21:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:12:51.400799
- Title: Hyperdimensional Computing vs. Neural Networks: Comparing Architecture
and Learning Process
- Title(参考訳): 超次元コンピューティング対ニューラルネットワーク:アーキテクチャと学習過程の比較
- Authors: Dongning Ma and Xun Jiao
- Abstract要約: 我々は、HDCとニューラルネットワークの比較研究を行い、HDCを前もって訓練された非常にコンパクトなニューラルネットワークから引き出すことができる異なる角度を提供する。
実験の結果,従来のHDCモデルと学習ベースのHDCモデルから,ニューラルネットワーク由来のHDCモデルを最大21%,精度5%向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 3.244375684001034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional Computing (HDC) has obtained abundant attention as an
emerging non von Neumann computing paradigm. Inspired by the way human brain
functions, HDC leverages high dimensional patterns to perform learning tasks.
Compared to neural networks, HDC has shown advantages such as energy efficiency
and smaller model size, but sub-par learning capabilities in sophisticated
applications. Recently, researchers have observed when combined with neural
network components, HDC can achieve better performance than conventional HDC
models. This motivates us to explore the deeper insights behind theoretical
foundations of HDC, particularly the connection and differences with neural
networks. In this paper, we make a comparative study between HDC and neural
network to provide a different angle where HDC can be derived from an extremely
compact neural network trained upfront. Experimental results show such neural
network-derived HDC model can achieve up to 21% and 5% accuracy increase from
conventional and learning-based HDC models respectively. This paper aims to
provide more insights and shed lights on future directions for researches on
this popular emerging learning scheme.
- Abstract(参考訳): 超次元コンピューティング(HDC)は、新しい非ノイマン計算パラダイムとして注目されている。
人間の脳機能にインスパイアされたHDCは、高次元パターンを利用して学習タスクを実行する。
ニューラルネットワークと比較すると、HDCはエネルギー効率やモデルサイズが小さいといった利点があるが、高度なアプリケーションではサブパーラーニング能力がある。
近年、研究者らは、ニューラルネットワークコンポーネントと組み合わせることで、HDCが従来のHDCモデルよりも優れたパフォーマンスを達成することを観察している。
このことは、HDCの理論的基礎、特にニューラルネットワークとのつながりと違いの背後にある深い洞察を探求する動機となります。
本稿では,HDCとニューラルネットワークの比較検討を行い,HDCを前もって訓練された極めてコンパクトなニューラルネットワークから導出できる角度を異にする。
実験の結果,従来モデルと学習モデルから得られたhdcモデルでは,最大21%,5%の精度向上が得られた。
本論文は,この新興学習方式の研究のために,さらなる洞察と今後の方向性の明かりを提供することを目的としている。
関連論文リスト
- Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Exploiting Noise as a Resource for Computation and Learning in Spiking
Neural Networks [32.0086664373154]
本研究では,雑音型スパイクニューラルネットワーク(NSNN)とノイズ駆動学習規則(NDL)を紹介する。
NSNNは、スケーラブルでフレキシブルで信頼性の高い計算をもたらす理論的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T13:21:26Z) - CQural: A Novel CNN based Hybrid Architecture for Quantum Continual
Machine Learning [0.0]
本研究では,新しい古典量子ニューラルネットを用いた連続学習において,破滅的な忘れを回避できることが示唆された。
また、モデルがこれらの説明でトレーニングされている場合、より良いパフォーマンスを与え、決定境界から遠く離れた特定の特徴を学ぶ傾向があります。
論文 参考訳(メタデータ) (2023-05-16T18:19:12Z) - GraphHD: Efficient graph classification using hyperdimensional computing [58.720142291102135]
本稿では,HDCを用いたグラフ分類のベースライン手法を提案する。
実世界のグラフ分類問題におけるGraphHDの評価を行った。
その結果,最新のグラフニューラルネットワーク (GNN) と比較すると,提案手法の精度は同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T17:32:58Z) - Automated Architecture Search for Brain-inspired Hyperdimensional
Computing [5.489173080636452]
本稿では,超次元コンピューティング(HDC)のためのアーキテクチャの自動探索のための最初の試みを示す。
検索したHDCアーキテクチャは、薬物発見データセットと言語認識タスクを含むケーススタディにおける競合性能を示す。
論文 参考訳(メタデータ) (2022-02-11T18:43:36Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Spiking Hyperdimensional Network: Neuromorphic Models Integrated with
Memory-Inspired Framework [8.910420030964172]
我々は、スパイキングニューラルネットワークと超次元コンピューティングを根本的に組み合わせた最初のフレームワークであるSpikeHDを提案する。
SpikeHDはスパイクニューラルネットワークを利用して、生のイベントベースのスパイクデータの空間的および時間的相関を保存することで、低レベルの特徴を抽出する。
ベンチマーク分類問題に対する評価の結果,SpikeHDはSNNアーキテクチャと比較して以下の利点があることがわかった。
論文 参考訳(メタデータ) (2021-10-01T05:01:21Z) - Training Convolutional Neural Networks With Hebbian Principal Component
Analysis [10.026753669198108]
ヘブリアン学習は、ニューラルネットワークの下層または高層を訓練するために使用することができる。
私たちは、HWTA(Hebbian Winner Takes All)戦略の代わりに、非線形のHebbianプリンシパルコンポーネント分析(HPCA)学習ルールを使用します。
特にHPCAルールは、CIFAR-10イメージデータセットから関連する特徴を抽出するために、畳み込みニューラルネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2020-12-22T18:17:46Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。