論文の概要: Orthogonal Matrices for MBAT Vector Symbolic Architectures, and a "Soft"
VSA Representation for JSON
- arxiv url: http://arxiv.org/abs/2202.04771v1
- Date: Tue, 8 Feb 2022 18:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 13:08:17.615179
- Title: Orthogonal Matrices for MBAT Vector Symbolic Architectures, and a "Soft"
VSA Representation for JSON
- Title(参考訳): MBATベクトルシンボルアーキテクチャのための直交行列とJSONのための"ソフト"VSA表現
- Authors: Stephen I. Gallant
- Abstract要約: ベクトルアーキテクチャ(VSAs)は、類似したオブジェクトが類似したベクトル表現を持つように、複雑なオブジェクトを単一の固定長ベクトルとして表現する方法を提供する。
提案手法であるMBAT(Matrix Binding of Additive Terms)について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vector Symbolic Architectures (VSAs) give a way to represent a complex object
as a single fixed-length vector, so that similar objects have similar vector
representations. These vector representations then become easy to use for
machine learning or nearest-neighbor search. We review a previously proposed
VSA method, MBAT (Matrix Binding of Additive Terms), which uses multiplication
by random matrices for binding related terms. However, multiplying by such
matrices introduces instabilities which can harm performance. Making the random
matrices be orthogonal matrices provably fixes this problem. With respect to
larger scale applications, we see how to apply MBAT vector representations for
any data expressed in JSON. JSON is used in numerous programming languages to
express complex data, but its native format appears highly unsuited for machine
learning. Expressing JSON as a fixed-length vector makes it readily usable for
machine learning and nearest-neighbor search. Creating such JSON vectors also
shows that a VSA needs to employ binding operations that are non-commutative.
VSAs are now ready to try with full-scale practical applications, including
healthcare, pharmaceuticals, and genomics.
Keywords: MBAT (Matrix Binding of Additive Terms), VSA (Vector Symbolic
Architecture), HDC (Hyperdimensional Computing), Distributed Representations,
Binding, Orthogonal Matrices, Recurrent Connections, Machine Learning, Search,
JSON, VSA Applications
- Abstract(参考訳): ベクトル記号アーキテクチャ(vsas)は、複素オブジェクトを単一の固定長ベクトルとして表現する方法を与え、類似したオブジェクトが類似したベクトル表現を持つようにする。
これらのベクトル表現は、機械学習や近距離探索に使いやすくなります。
本稿では,前述したvsa法であるmbat (matrix binding of additive terms) について検討する。
しかし、そのような行列による乗算は、性能を損なう不安定性をもたらす。
ランダム行列を直交行列にすることは、この問題を確実に解決する。
大規模アプリケーションに関しては,JSONで表現された任意のデータに対してMBATベクトル表現を適用する方法について検討する。
JSONは多くのプログラミング言語で複雑なデータ表現に使われていますが、そのネイティブフォーマットは機械学習には適していません。
JSONを固定長ベクタとして表現することで、機械学習や最寄りの検索に容易に利用できる。
このようなJSONベクタを作成することは、VSAが非可換なバインディング操作を採用する必要があることを示している。
VSAは現在、医療、医薬品、ゲノム学など、本格的な実用的アプリケーションを試す準備ができている。
キーワード:mbat (matrix binding of additive terms)、vsa (vector symbolic architecture)、hdc (hyperdimensional computing)、分散表現、バインディング、直交行列、リカレント接続、機械学習、検索、json、vsaアプリケーション
関連論文リスト
- A Walsh Hadamard Derived Linear Vector Symbolic Architecture [83.27945465029167]
シンボリックベクトルアーキテクチャ(VSAs)は、ニューロシンボリックAIを開発するためのアプローチである。
HLBは計算効率が良く、従来のVSAタスクで有効であるように設計されている。
論文 参考訳(メタデータ) (2024-10-30T03:42:59Z) - Support matrix machine: A review [0.0]
サポートマトリックスマシン(SMM)は、行列入力データを扱うのに適した新しい手法の1つである。
本稿では,SMM モデルの開発について,より詳細な分析を行う。
我々は、ロバスト、スパース、クラス不均衡、マルチクラス分類モデルなど、多くのSMM変種について論じる。
論文 参考訳(メタデータ) (2023-10-30T16:46:23Z) - Multiresolution kernel matrix algebra [0.0]
本研究では, あるS形式において, 最適スパース行列を生成するサンプルレットを用いて, カーネル行列の圧縮を示す。
カーネル行列の逆数(もし存在するなら)は S-形式でも圧縮可能である。
行列代数は擬微分計算によって数学的に正当化される。
論文 参考訳(メタデータ) (2022-11-21T17:50:22Z) - HyperSeed: Unsupervised Learning with Vector Symbolic Architectures [5.258404928739212]
本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
論文 参考訳(メタデータ) (2021-10-15T20:05:43Z) - Non-PSD Matrix Sketching with Applications to Regression and
Optimization [56.730993511802865]
非PSDおよび2乗根行列の次元削減法を提案する。
複数のダウンストリームタスクにこれらのテクニックをどのように使用できるかを示す。
論文 参考訳(メタデータ) (2021-06-16T04:07:48Z) - Learning Sparse Graph Laplacian with K Eigenvector Prior via Iterative
GLASSO and Projection [58.5350491065936]
グラフ Laplacian 行列 $L$ 上の構造的仮定を考える。
最初の$K$ eigenvectors of $L$は、例えばドメイン固有の基準に基づいて事前選択される。
本稿では,H_u+$$$$barC$で最も適切なグラフラプラシアン行列$L*を計算するために,効率的なハイブリッドグラフラッソ/投影アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-25T18:12:50Z) - What if Neural Networks had SVDs? [66.91160214071088]
様々なニューラルネットワークでは、行列反転のような時間を要する行列演算を採用している。
本稿では,行列演算を高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-29T12:58:52Z) - Vector-Matrix-Vector Queries for Solving Linear Algebra, Statistics, and
Graph Problems [58.83118651518438]
ベクトル行列ベクトルクエリを用いて行列について学習する一般的な問題を考える。
これらのクエリは、固定フィールド上の$boldsymbolumathrmTboldsymbolMboldsymbolv$の値を提供する。
我々は、線形代数、統計、グラフにまたがる様々な問題に対して、新しい上界と下界を提供する。
論文 参考訳(メタデータ) (2020-06-24T19:33:49Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。