論文の概要: Vector Symbolic Architectures as a Computing Framework for Nanoscale
Hardware
- arxiv url: http://arxiv.org/abs/2106.05268v1
- Date: Wed, 9 Jun 2021 23:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:12:57.679402
- Title: Vector Symbolic Architectures as a Computing Framework for Nanoscale
Hardware
- Title(参考訳): ナノスケールハードウェアのための計算フレームワークとしてのベクトルシンボリックアーキテクチャ
- Authors: Denis Kleyko, Mike Davies, E. Paxon Frady, Pentti Kanerva, Spencer J.
Kent, Bruno A. Olshausen, Evgeny Osipov, Jan M. Rabaey, Dmitri A.
Rachkovskij, Abbas Rahimi, Friedrich T. Sommer
- Abstract要約: 本稿では,計算フレームワークVector Symbolic Architectures(超次元コンピューティング)の開発における最近の進歩を概観する。
このフレームワークはナノスケールハードウェアの実装に適しており、人工知能(AI)に必要な認知操作の種類を自然に表現している。
本稿では,分散コンピューティングのためのVSAの技法と哲学を解説し,ニューロモルフィックコンピューティングなどの新興コンピューティングハードウェアとの関連性を示す。
- 参考スコア(独自算出の注目度): 5.448296338796106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article reviews recent progress in the development of the computing
framework Vector Symbolic Architectures (also known as Hyperdimensional
Computing). This framework is well suited for implementation in stochastic,
nanoscale hardware and it naturally expresses the types of cognitive operations
required for Artificial Intelligence (AI). We demonstrate in this article that
the ring-like algebraic structure of Vector Symbolic Architectures offers
simple but powerful operations on high-dimensional vectors that can support all
data structures and manipulations relevant in modern computing. In addition, we
illustrate the distinguishing feature of Vector Symbolic Architectures,
"computing in superposition," which sets it apart from conventional computing.
This latter property opens the door to efficient solutions to the difficult
combinatorial search problems inherent in AI applications. Vector Symbolic
Architectures are Turing complete, as we show, and we see them acting as a
framework for computing with distributed representations in myriad AI settings.
This paper serves as a reference for computer architects by illustrating
techniques and philosophy of VSAs for distributed computing and relevance to
emerging computing hardware, such as neuromorphic computing.
- Abstract(参考訳): 本稿では,計算フレームワークVector Symbolic Architectures(超次元コンピューティング)の開発における最近の進歩を概観する。
このフレームワークは確率的でナノスケールのハードウェアの実装に適しており、人工知能(AI)に必要な認知操作のタイプを自然に表現している。
本稿では,ベクトル記号アーキテクチャの環状代数構造が,現代コンピューティングに関連するすべてのデータ構造と操作をサポートする高次元ベクトルに対して,単純かつ強力な操作を提供することを示す。
さらに,従来の計算とは別個の「重ね合わせ計算」というベクトル記号アーキテクチャの特徴を述べる。
この後者の性質は、AIアプリケーションに固有の難しい組合せ探索問題に対する効率的な解決策への扉を開く。
ベクトルシンボリックアーキテクチャは、私たちが示すようにチューリング完全であり、無数のAI設定で分散表現を計算するためのフレームワークとして機能すると考えています。
本稿では、分散コンピューティングのためのvsasの技法と哲学を図解し、ニューロモーフィックコンピューティングのような新しいコンピューティングハードウェアとの関連性を示すことで、コンピュータアーキテクトの参考となる。
関連論文リスト
- shapiq: Shapley Interactions for Machine Learning [21.939393765684827]
Shapley Value(SV)とShapley Interactions(SI)を効率的に計算するために、最先端のアルゴリズムを統一したオープンソースのPythonパッケージであるshapiqを紹介する。
実践者にとって、Shapiqは、視覚変換器、言語モデル、XGBoost、TreeShap-IQによるLightGBMなど、モデルの予測において、任意の順序のフィーチャーインタラクションを説明および視覚化することができる。
論文 参考訳(メタデータ) (2024-10-02T15:16:53Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Probabilistic Abduction for Visual Abstract Reasoning via Learning Rules
in Vector-symbolic Architectures [22.12114509953737]
抽象推論は人間の知性の基礎であり、それを人工知能(AI)で複製することは、現在進行中の課題である。
本研究では,抽象的推論能力を評価する視覚的テストであるRaven's Progress matrices (RPM) を効率的に解くことに焦点を当てた。
RPMに関連するルール定式化をハードコーディングする代わりに、トレーニングデータに1回だけ通すだけでVSAルール定式化を学習することができる。
論文 参考訳(メタデータ) (2024-01-29T10:17:18Z) - Computing with Residue Numbers in High-Dimensional Representation [7.736925756277564]
本稿では,Residue Hyperdimensional Computingを紹介した。Residue Hyperdimensional Computingは乱高次元ベクトル上で定義される代数学と残余数系を統一する計算フレームワークである。
代数演算をベクトル要素上の成分的に並列化可能な演算で行うことが可能な方法で、剰余数を高次元ベクトルとして表現する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T18:19:45Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - High-performance symbolic-numerics via multiple dispatch [52.77024349608834]
Symbolics.jlは拡張可能なシンボルシステムで、動的多重ディスパッチを使用してドメインのニーズに応じて振る舞いを変更する。
実装に依存しないアクションでジェネリックapiを形式化することで、システムに最適化されたデータ構造を遡及的に追加できることを示します。
従来の用語書き換えシンプリファイアと電子グラフベースの用語書き換えシンプリファイアをスワップする機能を実証する。
論文 参考訳(メタデータ) (2021-05-09T14:22:43Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Near-Optimal Hardware Design for Convolutional Neural Networks [0.0]
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
論文 参考訳(メタデータ) (2020-02-06T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。