論文の概要: Generalized Learning Vector Quantization for Classification in
Randomized Neural Networks and Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2106.09821v1
- Date: Thu, 17 Jun 2021 21:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:03:52.493704
- Title: Generalized Learning Vector Quantization for Classification in
Randomized Neural Networks and Hyperdimensional Computing
- Title(参考訳): ランダムニューラルネットワークの分類のための一般化学習ベクトル量子化と超次元計算
- Authors: Cameron Diao, Denis Kleyko, Jan M. Rabaey, Bruno A. Olshausen
- Abstract要約: 本稿では,トレーニング中の計算コストの高い行列操作を回避する改良型RVFLネットワークを提案する。
提案手法は,UCI Machine Learning Repositoryから取得したデータセットの集合に対して,最先端の精度を達成した。
- 参考スコア(独自算出の注目度): 4.4886210896619945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms deployed on edge devices must meet certain
resource constraints and efficiency requirements. Random Vector Functional Link
(RVFL) networks are favored for such applications due to their simple design
and training efficiency. We propose a modified RVFL network that avoids
computationally expensive matrix operations during training, thus expanding the
network's range of potential applications. Our modification replaces the
least-squares classifier with the Generalized Learning Vector Quantization
(GLVQ) classifier, which only employs simple vector and distance calculations.
The GLVQ classifier can also be considered an improvement upon certain
classification algorithms popularly used in the area of Hyperdimensional
Computing. The proposed approach achieved state-of-the-art accuracy on a
collection of datasets from the UCI Machine Learning Repository - higher than
previously proposed RVFL networks. We further demonstrate that our approach
still achieves high accuracy while severely limited in training iterations
(using on average only 21% of the least-squares classifier computational
costs).
- Abstract(参考訳): エッジデバイスにデプロイされる機械学習アルゴリズムは、リソースの制約と効率要件を満たす必要がある。
ランダムベクトル関数リンク(RVFL)ネットワークは、設計と訓練の効率化のために、そのような用途に好まれる。
トレーニング中に計算コストのかかる行列操作を回避し,ネットワークの潜在的な応用範囲を広げる改良RVFLネットワークを提案する。
この修正は、最小二乗分類器を一般化学習ベクトル量子化(glvq)分類器に置き換え、単純なベクトルと距離計算のみを用いる。
GLVQ分類器は、超次元コンピューティングの分野で広く使われている特定の分類アルゴリズムの改善とも考えられる。
提案手法は,UCI Machine Learning Repositoryのデータセットの集合に対して,従来提案されていたRVFLネットワークよりも高い最先端の精度を達成した。
さらに,本手法は繰り返しの訓練において高い精度を保ちながら(最小二乗分類器の計算コストの21%しか使用していない),高い精度を保っていることを示す。
関連論文リスト
- Random Aggregate Beamforming for Over-the-Air Federated Learning in Large-Scale Networks [66.18765335695414]
本稿では,アグリゲーションエラーを最小限に抑え,選択したデバイス数を最大化する目的で,共同装置の選択とアグリゲーションビームフォーミング設計について検討する。
コスト効率のよい方法でこの問題に取り組むために,ランダムな集合ビームフォーミング方式を提案する。
また, 得られた集計誤差と, デバイス数が大きい場合に選択したデバイス数についても解析を行った。
論文 参考訳(メタデータ) (2024-02-20T23:59:45Z) - Automated Sizing and Training of Efficient Deep Autoencoders using
Second Order Algorithms [0.46040036610482665]
一般化線形分類器の多段階学習法を提案する。
検証エラーは不要な入力のプルーニングによって最小化される。
所望の出力は、Ho-Kashyapルールに似た方法で改善される。
論文 参考訳(メタデータ) (2023-08-11T16:48:31Z) - Forward-Forward Algorithm for Hyperspectral Image Classification: A
Preliminary Study [0.0]
フォワードフォワードアルゴリズム(FFA)は、ネットワークパラメータを最適化するために局所良性関数を計算する。
本研究では,FFAのハイパースペクトル画像分類への応用について検討した。
論文 参考訳(メタデータ) (2023-07-01T05:39:28Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Attentive Gaussian processes for probabilistic time-series generation [4.94950858749529]
本稿では,ガウス過程の回帰と組み合わせて実数値列を生成する,計算効率のよいアテンションベースネットワークを提案する。
我々は,GPがフルバッチを用いて訓練されている間,ネットワークのミニバッチトレーニングを可能にするブロックワイズトレーニングアルゴリズムを開発した。
アルゴリズムは収束することが証明され、より良くなくても、見いだされた解の品質に匹敵することを示す。
論文 参考訳(メタデータ) (2021-02-10T01:19:15Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z) - Fast local linear regression with anchor regularization [21.739281173516247]
高速アンカー正規化局所線形法(FALL)と呼ばれる,単純で効果的な局所モデルトレーニングアルゴリズムを提案する。
合成および実世界のデータセットの実験を通じて、FALLは最先端のネットワークLassoアルゴリズムと精度の面で好適に比較できることを示した。
論文 参考訳(メタデータ) (2020-02-21T10:03:33Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。