論文の概要: A Survey on Hyperdimensional Computing aka Vector Symbolic
Architectures, Part II: Applications, Cognitive Models, and Challenges
- arxiv url: http://arxiv.org/abs/2112.15424v3
- Date: Tue, 1 Aug 2023 14:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 18:37:29.762250
- Title: A Survey on Hyperdimensional Computing aka Vector Symbolic
Architectures, Part II: Applications, Cognitive Models, and Challenges
- Title(参考訳): 超次元計算におけるベクトルシンボリックアーキテクチャに関する研究(その2):応用,認知モデル,課題
- Authors: Denis Kleyko, Dmitri A. Rachkovskij, Evgeny Osipov, Abbas Rahimi
- Abstract要約: 第1部ではHDC/VSAの発展に繋がる歴史的背景について紹介した。
パートIIは、既存のアプリケーション、認知コンピューティングとアーキテクチャにおけるHDC/VSAの役割、そして今後の仕事の方向性を調査します。
- 参考スコア(独自算出の注目度): 7.240104756698618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is Part II of the two-part comprehensive survey devoted to a computing
framework most commonly known under the names Hyperdimensional Computing and
Vector Symbolic Architectures (HDC/VSA). Both names refer to a family of
computational models that use high-dimensional distributed representations and
rely on the algebraic properties of their key operations to incorporate the
advantages of structured symbolic representations and vector distributed
representations. Holographic Reduced Representations is an influential HDC/VSA
model that is well-known in the machine learning domain and often used to refer
to the whole family. However, for the sake of consistency, we use HDC/VSA to
refer to the field. Part I of this survey covered foundational aspects of the
field, such as the historical context leading to the development of HDC/VSA,
key elements of any HDC/VSA model, known HDC/VSA models, and the transformation
of input data of various types into high-dimensional vectors suitable for
HDC/VSA. This second part surveys existing applications, the role of HDC/VSA in
cognitive computing and architectures, as well as directions for future work.
Most of the applications lie within the Machine Learning/Artificial
Intelligence domain, however, we also cover other applications to provide a
complete picture. The survey is written to be useful for both newcomers and
practitioners.
- Abstract(参考訳): これはHyperdimensional Computing and Vector Symbolic Architectures (HDC/VSA)という名でよく知られるコンピューティングフレームワークに関する2部構成の総合的な調査である。
どちらの名前も高次元の分散表現を使用し、その鍵演算の代数的性質に依存して構造化記号表現とベクトル分散表現の利点を取り入れた計算モデルのファミリーを指す。
Holographic Reduced Representationsは、機械学習領域でよく知られ、家族全体を指すためによく使われる、影響力のあるHDC/VSAモデルである。
しかし、一貫性のため、フィールドを参照するためにHDC/VSAを使用する。
第1部では,HDC/VSAの発展につながる歴史的背景,HDC/VSAモデルの主要な要素,HDC/VSAモデル,HDC/VSAに適した高次元ベクトルへの各種入力データの変換など,この分野の基本的側面について論じる。
第2部では、既存のアプリケーション、認知コンピューティングとアーキテクチャにおけるHDC/VSAの役割、今後の作業の方向性について調査する。
ほとんどのアプリケーションは機械学習/人工知能ドメイン内にありますが、完全なイメージを提供するために他のアプリケーションもカバーしています。
この調査は、新参者も実践者も役に立つと書かれています。
関連論文リスト
- HyperVQ: MLR-based Vector Quantization in Hyperbolic Space [56.4245885674567]
ベクトル量子化(HyperVQ)における双曲空間の利用について検討する。
本稿では,高VQが識別タスクにおいてVQを上回り,高度に絡み合った潜在空間を学習しながら,再建作業や生成作業において相容れない性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-03-18T03:17:08Z) - Full High-Dimensional Intelligible Learning In 2-D Lossless
Visualization Space [7.005458308454871]
本研究では,2次元可視化空間(2次元ML)における機械学習分類タスクの新しい手法について検討する。
これは、抽象的なn次元空間でn次元データを処理する必要のない、完全な機械学習アプローチであることが示されている。
2次元空間におけるn-Dパターンの発見を可能にし、n-Dデータのグラフ表現を用いてn-D情報を失うことなく2次元空間におけるn-Dパターンの発見を可能にする。
論文 参考訳(メタデータ) (2023-05-29T00:21:56Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - Understanding Hyperdimensional Computing for Parallel Single-Pass
Learning [47.82940409267635]
我々はHDCがハードウェア効率を保ちながら、最先端のHDCモデルよりも最大7.6%性能が高いことを示す。
本稿では,HDC の限界を超える新しいクラス VSA,有限群 VSA を提案する。
実験の結果, RFF法とグループVSAはともに最先端HDCモデルより最大7.6%優れていた。
論文 参考訳(メタデータ) (2022-02-10T02:38:56Z) - A Survey on Hyperdimensional Computing aka Vector Symbolic
Architectures, Part I: Models and Data Transformations [7.240104756698618]
HDC/VSAは、コンピュータ科学、電気工学、人工知能、数学、認知科学とのつながりを持つ非常に学際的な分野である。
この2部構成の総合的な調査は、新参者および実践者の両方にとって有用であると書かれている。
論文 参考訳(メタデータ) (2021-11-11T07:14:22Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - Computing on Functions Using Randomized Vector Representations [4.066849397181077]
この新しい関数エンコーディングと計算フレームワーク Vector Function Architecture (VFA) と呼ぶ。
我々の分析と結果から,VFAは分散ニューラルネットワークにおける関数の表現と操作のための強力な新しいフレームワークとなっていることが示唆された。
論文 参考訳(メタデータ) (2021-09-08T04:39:48Z) - From Symbols to Embeddings: A Tale of Two Representations in
Computational Social Science [77.5409807529667]
コンピュータ社会科学(CSS)の研究は、データ駆動型であり、オンラインのユーザ生成コンテンツやソーシャルネットワークの可用性から大きな恩恵を受けている。
回答を探るため、テキストとネットワークの両方でCSSのデータ表現を徹底的にレビューする。
以上の表現の応用は、CSSに関連する6つのトップ会場から400以上の研究論文を調査した結果に基づく。
論文 参考訳(メタデータ) (2021-06-27T11:04:44Z) - High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance
Model [101.74172837046382]
そこで本研究では,魚の識別比を最大化する2次分類手法を提案する。
数値シミュレーションにより,提案した分類器は,合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量の削減も要求されることがわかった。
論文 参考訳(メタデータ) (2020-06-25T12:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。