論文の概要: Vector Symbolic Architectures as a Computing Framework for Emerging
Hardware
- arxiv url: http://arxiv.org/abs/2106.05268v2
- Date: Thu, 20 Jul 2023 16:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 19:26:29.901632
- Title: Vector Symbolic Architectures as a Computing Framework for Emerging
Hardware
- Title(参考訳): 新興ハードウェアのための計算フレームワークとしてのベクトルシンボリックアーキテクチャ
- Authors: Denis Kleyko, Mike Davies, E. Paxon Frady, Pentti Kanerva, Spencer J.
Kent, Bruno A. Olshausen, Evgeny Osipov, Jan M. Rabaey, Dmitri A.
Rachkovskij, Abbas Rahimi, Friedrich T. Sommer
- Abstract要約: 本稿では,ベクトル記号アーキテクチャ(VSA)の最近の進歩を概観する。
我々は、VSAが高次元ベクトルに対して単純だが強力な操作を提供し、現代のコンピューティングに関連するすべてのデータ構造と操作をサポートすることを実証した。
この記事では、VSAの背景にある哲学、それらと分散コンピューティングの技法、そしてそれらが新興のコンピューティングハードウェアと関連していることを説明することで、コンピュータアーキテクトへの参照として機能する。
- 参考スコア(独自算出の注目度): 8.28931204639352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article reviews recent progress in the development of the computing
framework vector symbolic architectures (VSA) (also known as hyperdimensional
computing). This framework is well suited for implementation in stochastic,
emerging hardware, and it naturally expresses the types of cognitive operations
required for artificial intelligence (AI). We demonstrate in this article that
the field-like algebraic structure of VSA offers simple but powerful operations
on high-dimensional vectors that can support all data structures and
manipulations relevant to modern computing. In addition, we illustrate the
distinguishing feature of VSA, "computing in superposition," which sets it
apart from conventional computing. It also opens the door to efficient
solutions to the difficult combinatorial search problems inherent in AI
applications. We sketch ways of demonstrating that VSA are computationally
universal. We see them acting as a framework for computing with distributed
representations that can play a role of an abstraction layer for emerging
computing hardware. This article serves as a reference for computer architects
by illustrating the philosophy behind VSA, techniques of distributed computing
with them, and their relevance to emerging computing hardware, such as
neuromorphic computing.
- Abstract(参考訳): 本稿では,vector symbolic architectures (vsa) (超次元コンピューティングとしても知られている) の開発における最近の進歩を概観する。
このフレームワークは確率的で新興のハードウェアの実装に適しており、人工知能(AI)に必要な認知操作のタイプを自然に表現している。
本稿では、vsa の体様代数構造が、現代的な計算に関連する全てのデータ構造と操作をサポートする高次元ベクトル上の単純かつ強力な操作を提供することを示す。
さらに,VSAの区別機能である「重ね合わせ計算」について述べる。
また、AIアプリケーションに固有の難しい組合せ探索問題に対する効率的なソリューションへの扉を開く。
我々はVSAが計算学的に普遍的であることを示す方法をスケッチする。
分散表現を用いたコンピューティングのフレームワークとして機能し、新興コンピューティングハードウェアの抽象化レイヤの役割を担っていると考えています。
この記事では、vsaの背景にある哲学、それらを用いた分散コンピューティングのテクニック、ニューロモーフィックコンピューティングのような新しいコンピューティングハードウェアとの関連を図示することで、コンピュータアーキテクトへの参照として役立ちます。
関連論文リスト
- shapiq: Shapley Interactions for Machine Learning [21.939393765684827]
Shapley Value(SV)とShapley Interactions(SI)を効率的に計算するために、最先端のアルゴリズムを統一したオープンソースのPythonパッケージであるshapiqを紹介する。
実践者にとって、Shapiqは、視覚変換器、言語モデル、XGBoost、TreeShap-IQによるLightGBMなど、モデルの予測において、任意の順序のフィーチャーインタラクションを説明および視覚化することができる。
論文 参考訳(メタデータ) (2024-10-02T15:16:53Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Probabilistic Abduction for Visual Abstract Reasoning via Learning Rules
in Vector-symbolic Architectures [22.12114509953737]
抽象推論は人間の知性の基礎であり、それを人工知能(AI)で複製することは、現在進行中の課題である。
本研究では,抽象的推論能力を評価する視覚的テストであるRaven's Progress matrices (RPM) を効率的に解くことに焦点を当てた。
RPMに関連するルール定式化をハードコーディングする代わりに、トレーニングデータに1回だけ通すだけでVSAルール定式化を学習することができる。
論文 参考訳(メタデータ) (2024-01-29T10:17:18Z) - Computing with Residue Numbers in High-Dimensional Representation [7.736925756277564]
本稿では,Residue Hyperdimensional Computingを紹介した。Residue Hyperdimensional Computingは乱高次元ベクトル上で定義される代数学と残余数系を統一する計算フレームワークである。
代数演算をベクトル要素上の成分的に並列化可能な演算で行うことが可能な方法で、剰余数を高次元ベクトルとして表現する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T18:19:45Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - High-performance symbolic-numerics via multiple dispatch [52.77024349608834]
Symbolics.jlは拡張可能なシンボルシステムで、動的多重ディスパッチを使用してドメインのニーズに応じて振る舞いを変更する。
実装に依存しないアクションでジェネリックapiを形式化することで、システムに最適化されたデータ構造を遡及的に追加できることを示します。
従来の用語書き換えシンプリファイアと電子グラフベースの用語書き換えシンプリファイアをスワップする機能を実証する。
論文 参考訳(メタデータ) (2021-05-09T14:22:43Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Near-Optimal Hardware Design for Convolutional Neural Networks [0.0]
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
論文 参考訳(メタデータ) (2020-02-06T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。