論文の概要: HyperSeed: Unsupervised Learning with Vector Symbolic Architectures
- arxiv url: http://arxiv.org/abs/2110.08343v1
- Date: Fri, 15 Oct 2021 20:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 16:39:19.661624
- Title: HyperSeed: Unsupervised Learning with Vector Symbolic Architectures
- Title(参考訳): HyperSeed: ベクトルシンボリックアーキテクチャによる教師なし学習
- Authors: Evgeny Osipov, Sachin Kahawala, Dilantha Haputhanthri, Thimal
Kempitiya, Daswin De Silva, Damminda Alahakoon, Denis Kleyko
- Abstract要約: 本稿では,Hyperseedという新しい教師なし機械学習手法を提案する。
VSA(Vector Symbolic Architectures)を活用して、問題のないデータのトポロジ保存機能マップを高速に学習する。
ハイパーシードアルゴリズムの2つの特徴的特徴は,1)少数の入力データサンプルから学習すること,2)1つのベクトル演算に基づく学習規則である。
- 参考スコア(独自算出の注目度): 5.258404928739212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by recent innovations in biologically-inspired neuromorphic
hardware, this paper presents a novel unsupervised machine learning approach
named Hyperseed that leverages Vector Symbolic Architectures (VSA) for fast
learning a topology preserving feature map of unlabelled data. It relies on two
major capabilities of VSAs: the binding operation and computing in
superposition. In this paper, we introduce the algorithmic part of Hyperseed
expressed within Fourier Holographic Reduced Representations VSA model, which
is specifically suited for implementation on spiking neuromorphic hardware. The
two distinctive novelties of the Hyperseed algorithm are: 1) Learning from only
few input data samples and 2) A learning rule based on a single vector
operation. These properties are demonstrated on synthetic datasets as well as
on illustrative benchmark use-cases, IRIS classification and a language
identification task using n-gram statistics.
- Abstract(参考訳): 本稿では,生物にインスパイアされたニューロモルフィックハードウェアの最近の革新に触発され,非競合データのトポロジ保存機能マップを高速に学習するためにベクトル記号アーキテクチャ(VSA)を活用する,Hyperseedという新しい教師なし機械学習アプローチを提案する。
vsasの主な機能であるバインディング操作とスーパーポジションでのコンピューティングの2つに依存している。
本稿では,Fourier Holographic Reduced Representations VSAモデルで表現されるHyperseedのアルゴリズム的部分を紹介する。
ハイパーシードアルゴリズムの2つの特徴は次のとおりである。
1)わずかな入力データサンプルから学ぶこと、及び
2) 1つのベクトル演算に基づく学習規則。
これらの特性は,n-gram統計量を用いた実測的ベンチマーク,IRIS分類,言語識別タスクだけでなく,合成データセット上でも実証される。
関連論文リスト
- A Walsh Hadamard Derived Linear Vector Symbolic Architecture [83.27945465029167]
シンボリックベクトルアーキテクチャ(VSAs)は、ニューロシンボリックAIを開発するためのアプローチである。
HLBは計算効率が良く、従来のVSAタスクで有効であるように設計されている。
論文 参考訳(メタデータ) (2024-10-30T03:42:59Z) - Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Heterogeneous Directed Hypergraph Neural Network over abstract syntax
tree (AST) for Code Classification [9.01892294402701]
我々は、ASTをヘテロジニアス指向ハイパーグラフ(HDHG)として表現し、コード分類のためのヘテロジニアス指向ハイパーグラフニューラルネットワーク(HDHGN)によるグラフ処理を提案する。
提案手法は, コード理解を改善し, 対の相互作用を超えた高次データ相関を表現できる。
論文 参考訳(メタデータ) (2023-05-07T09:28:16Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Gluing Neural Networks Symbolically Through Hyperdimensional Computing [8.209945970790741]
ニューラルネットワークの出力信号の最終的な分類を符号化するためにバイナリハイパーベクタを用いるという概念について検討する。
これにより、複数のニューラルネットワークが協力して問題を解決することができ、オーバーヘッドは少なくなる。
これは、非常に少ないオーバーヘッドを使用しながら、芸術の状態を上回り、あるいはそれと同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-31T04:44:02Z) - An Extension to Basis-Hypervectors for Learning from Circular Data in
Hyperdimensional Computing [62.997667081978825]
超次元計算(Hyperdimensional Computing、HDC)は、高次元ランダム空間の性質に基づく計算フレームワークである。
本稿では, 基本超ベクトル集合について検討し, 一般にHDCへの実践的貢献につながっている。
本稿では,HDCを用いた機械学習において,これまでに扱ったことのない重要な情報である円形データから学習する手法を提案する。
論文 参考訳(メタデータ) (2022-05-16T18:04:55Z) - Self-Supervised Graph Representation Learning for Neuronal Morphologies [75.38832711445421]
ラベルのないデータセットから3次元神経形態の低次元表現を学習するためのデータ駆動型アプローチであるGraphDINOを提案する。
2つの異なる種と複数の脳領域において、この方法では、専門家による手動の特徴に基づく分類と同程度に形態学的細胞型クラスタリングが得られることを示す。
提案手法は,大規模データセットにおける新しい形態的特徴や細胞型の発見を可能にする可能性がある。
論文 参考訳(メタデータ) (2021-12-23T12:17:47Z) - ast2vec: Utilizing Recursive Neural Encodings of Python Programs [3.088385631471295]
我々はPythonの構文木をベクトルとバックにマッピングするニューラルネットワークであるast2vecを紹介した。
Ast2vecは50万近い初心者プログラマーのプログラムで訓練されている。
論文 参考訳(メタデータ) (2021-03-22T06:53:52Z) - Synbols: Probing Learning Algorithms with Synthetic Datasets [112.45883250213272]
Synbolsは、低解像度画像にレンダリングされた潜在機能のリッチな構成で、新しいデータセットを高速に生成するツールである。
ツールの高レベルインターフェースは、潜在機能で新しいディストリビューションを高速に生成するための言語を提供する。
Synbolsの汎用性を示すために,各種学習環境における標準学習アルゴリズムの限界と欠陥を識別するために,本手法を用いる。
論文 参考訳(メタデータ) (2020-09-14T13:03:27Z) - Tensor Relational Algebra for Machine Learning System Design [7.764107702934616]
本稿では、リレーショナルテンソル代数(TRA)と呼ばれる別の実装抽象化を提案する。
TRA は、リレーショナル代数に基づく集合基底代数である。
我々の実証研究は、最適化されたTRAベースのバックエンドが、分散クラスタでMLを実行する際の選択肢を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:51:24Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。