論文の概要: Shift-Equivariant Similarity-Preserving Hypervector Representations of
Sequences
- arxiv url: http://arxiv.org/abs/2112.15475v1
- Date: Fri, 31 Dec 2021 14:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 14:11:56.805470
- Title: Shift-Equivariant Similarity-Preserving Hypervector Representations of
Sequences
- Title(参考訳): シフト同変類似性-列のハイパーベクトル表現を保存する
- Authors: Dmitri A. Rachkovskij
- Abstract要約: 本稿では,シーケンスのハイパーベクター形成のためのアプローチを提案する。
提案手法は合成ハイパーベクターによるシーケンス要素の表現である。
シンボル文字列の形でデータを用いた多種多様なタスクセットを用いて,提案した表現を実験的に検討した。
- 参考スコア(独自算出の注目度): 0.8223798883838329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperdimensional Computing (HDC), also known as Vector-Symbolic Architectures
(VSA), is a promising framework for the development of cognitive architectures
and artificial intelligence systems, as well as for technical applications and
emerging neuromorphic and nanoscale hardware. HDC/VSA operate with
hypervectors, i.e., distributed vector representations of large fixed dimension
(usually > 1000). One of the key ingredients of HDC/VSA are the methods for
encoding data of various types (from numeric scalars and vectors to graphs)
into hypervectors. In this paper, we propose an approach for the formation of
hypervectors of sequences that provides both an equivariance with respect to
the shift of sequences and preserves the similarity of sequences with identical
elements at nearby positions. Our methods represent the sequence elements by
compositional hypervectors and exploit permutations of hypervectors for
representing the order of sequence elements. We experimentally explored the
proposed representations using a diverse set of tasks with data in the form of
symbolic strings. Although our approach is feature-free as it forms the
hypervector of a sequence from the hypervectors of its symbols at their
positions, it demonstrated the performance on a par with the methods that apply
various features, such as subsequences. The proposed techniques were designed
for the HDC/VSA model known as Sparse Binary Distributed Representations.
However, they can be adapted to hypervectors in formats of other HDC/VSA
models, as well as for representing sequences of types other than symbolic
strings.
- Abstract(参考訳): 超次元コンピューティング(HDC、Vector-Symbolic Architectures、略称:VSA)は、認知アーキテクチャや人工知能システムの開発、技術応用、新しいニューロモルフィックおよびナノスケールハードウェアのための有望なフレームワークである。
HDC/VSAは超ベクトル、すなわち大きな固定次元(通常は1000)の分散ベクトル表現で動作する。
HDC/VSAの重要な要素の1つは、様々な種類のデータ(数値スカラーやベクトルからグラフまで)をハイパーベクターに符号化する方法である。
本稿では,配列のシフトに関して等分散性を提供し,近接位置において同一の要素を持つ配列の類似性を保持する列の超ベクトルの形成に関するアプローチを提案する。
提案手法は, 配列要素を合成ハイパーベクターで表現し, 配列要素の順序を表すためにハイパーベクターの置換を利用する。
提案手法はシンボリック文字列の形でデータを含む多様なタスク群を用いて実験的に検討した。
我々のアプローチは、その位置における記号の超ベクトルから列の超ベクトルを形成するため、特徴のないものであるが、サブシーケンスのような様々な特徴を応用した手法と同等の性能を示す。
提案手法はSparse Binary Distributed Representationsとして知られるHDC/VSAモデルのために設計された。
しかし、それらは他のhdc/vsaモデルのフォーマットの超ベクトルやシンボリック文字列以外の型の列に適応することができる。
関連論文リスト
- HyperVQ: MLR-based Vector Quantization in Hyperbolic Space [56.4245885674567]
ベクトル量子化(HyperVQ)における双曲空間の利用について検討する。
本稿では,高VQが識別タスクにおいてVQを上回り,高度に絡み合った潜在空間を学習しながら,再建作業や生成作業において相容れない性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-03-18T03:17:08Z) - Sobol Sequence Optimization for Hardware-Efficient Vector Symbolic
Architectures [2.022279594514036]
超次元コンピューティング(HDC)は、効率的で堅牢な学習を約束する新しいコンピューティングパラダイムである。
オブジェクトはハイパーベクトルと呼ばれる高次元ベクトル記号列で符号化される。
分布と独立性によって定義されるハイパーベクターの品質は、HDCシステムの性能に直接影響を及ぼす。
論文 参考訳(メタデータ) (2023-11-17T01:48:07Z) - uHD: Unary Processing for Lightweight and Dynamic Hyperdimensional
Computing [1.7118124088316602]
超次元計算(Hyperdimensional Computing、HDC)は、超ベクトルと呼ばれる長次元ベクトルを扱う新しい計算パラダイムである。
本稿では,低差分シーケンスを用いてHDCの強度と位置のハイパーベクターを生成する方法を示す。
論文の中ではじめて,本提案手法では,データの効率的な符号化に一元ビットストリームを用いた軽量なベクトル生成器を用いる。
論文 参考訳(メタデータ) (2023-11-16T06:28:19Z) - Learning from Hypervectors: A Survey on Hypervector Encoding [9.46717806608802]
超次元コンピューティング(Hyperdimensional Computing、HDC)は、脳の構造を模倣し、強力で効率的な処理と学習モデルを提供する新しいコンピューティングパラダイムである。
HDCでは、データは1Kから10Kの長さの超ベクトルと呼ばれる長いベクトルで符号化される。
論文 参考訳(メタデータ) (2023-08-01T17:42:35Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Deep Diversity-Enhanced Feature Representation of Hyperspectral Images [87.47202258194719]
トポロジを改良して3次元畳み込みを補正し,上行階の高次化を図る。
また、要素間の独立性を最大化するために特徴マップに作用する新しい多様性対応正規化(DA-Reg)項を提案する。
提案したRe$3$-ConvSetとDA-Regの優位性を実証するために,様々なHS画像処理および解析タスクに適用する。
論文 参考訳(メタデータ) (2023-01-15T16:19:18Z) - Understanding Hyperdimensional Computing for Parallel Single-Pass
Learning [47.82940409267635]
我々はHDCがハードウェア効率を保ちながら、最先端のHDCモデルよりも最大7.6%性能が高いことを示す。
本稿では,HDC の限界を超える新しいクラス VSA,有限群 VSA を提案する。
実験の結果, RFF法とグループVSAはともに最先端HDCモデルより最大7.6%優れていた。
論文 参考訳(メタデータ) (2022-02-10T02:38:56Z) - Recursive Binding for Similarity-Preserving Hypervector Representations
of Sequences [4.65149292714414]
HDC/VSAソリューションを設計するための重要なステップは、入力データからそのような表現を得ることである。
ここでは, 近傍位置における同一配列要素の類似性を両立させる分散表現への変換を提案する。
単語類似性の人間の知覚をモデル化するためのシンボル文字列を用いて,提案手法を実験的に検討した。
論文 参考訳(メタデータ) (2022-01-27T17:41:28Z) - Computing on Functions Using Randomized Vector Representations [4.066849397181077]
この新しい関数エンコーディングと計算フレームワーク Vector Function Architecture (VFA) と呼ぶ。
我々の分析と結果から,VFAは分散ニューラルネットワークにおける関数の表現と操作のための強力な新しいフレームワークとなっていることが示唆された。
論文 参考訳(メタデータ) (2021-09-08T04:39:48Z) - Tensor Representations for Action Recognition [54.710267354274194]
シーケンスにおける人間の行動は、空間的特徴とその時間的ダイナミクスの複雑な相互作用によって特徴づけられる。
アクション認識タスクの視覚的特徴間の高次関係を捉えるための新しいテンソル表現を提案する。
我々は,高次テンソルといわゆる固有値パワー正規化(NEP)を用いて,高次事象のスペクトル検出を行う。
論文 参考訳(メタデータ) (2020-12-28T17:27:18Z) - High-Dimensional Quadratic Discriminant Analysis under Spiked Covariance
Model [101.74172837046382]
そこで本研究では,魚の識別比を最大化する2次分類手法を提案する。
数値シミュレーションにより,提案した分類器は,合成データと実データの両方において古典的R-QDAよりも優れるだけでなく,計算量の削減も要求されることがわかった。
論文 参考訳(メタデータ) (2020-06-25T12:00:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。