論文の概要: LeHDC: Learning-Based Hyperdimensional Computing Classifier
- arxiv url: http://arxiv.org/abs/2203.09680v1
- Date: Fri, 18 Mar 2022 01:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:00:37.556080
- Title: LeHDC: Learning-Based Hyperdimensional Computing Classifier
- Title(参考訳): lehdc: 学習ベースの超次元計算分類器
- Authors: Shijin Duan, Yejia Liu, Shaolei Ren, and Xiaolin Xu
- Abstract要約: モデル精度を向上させるために,原理的学習手法を活用した新しいHDCフレームワークLeHDCを提案する。
実験による検証によると、LeHDCは従来のHDCトレーニング戦略より優れており、平均推定精度が15%以上向上している。
- 参考スコア(独自算出の注目度): 14.641707790969914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to the tiny storage and efficient execution, hyperdimensional
Computing (HDC) is emerging as a lightweight learning framework on
resource-constrained hardware. Nonetheless, the existing HDC training relies on
various heuristic methods, significantly limiting their inference accuracy. In
this paper, we propose a new HDC framework, called LeHDC, which leverages a
principled learning approach to improve the model accuracy. Concretely, LeHDC
maps the existing HDC framework into an equivalent Binary Neural Network
architecture, and employs a corresponding training strategy to minimize the
training loss. Experimental validation shows that LeHDC outperforms previous
HDC training strategies and can improve on average the inference accuracy over
15% compared to the baseline HDC.
- Abstract(参考訳): 小さなストレージと効率的な実行のおかげで、リソース制約のあるハードウェア上での軽量な学習フレームワークとして超次元コンピューティング(HDC)が登場している。
それでも、既存のHDCトレーニングは様々なヒューリスティックな手法に依存しており、推論精度を著しく制限している。
本稿では,モデル精度を向上させるために,原則的学習手法を活用した新しいHDCフレームワークLeHDCを提案する。
具体的には、LeHDCは既存のHDCフレームワークを同等のバイナリニューラルネットワークアーキテクチャにマッピングし、トレーニング損失を最小限にするために対応するトレーニング戦略を使用する。
実験による検証では、LeHDCは従来のHDCトレーニング戦略よりも優れており、ベースラインのHDCと比較して平均推定精度が15%以上向上している。
関連論文リスト
- ICL-TSVD: Bridging Theory and Practice in Continual Learning with Pre-trained Models [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
私たちは、経験的に強いアプローチを原則化されたフレームワークに統合することで、このギャップを埋めます。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - MicroHD: An Accuracy-Driven Optimization of Hyperdimensional Computing Algorithms for TinyML systems [8.54897708375791]
超次元コンピューティング(HDC)は、TinyMLアプリケーションを効果的にターゲットできる有望なAIアプローチとして登場しつつある。
HDCの以前の研究は、超次元空間の標準10k次元をはるかに低い値に制限することは可能であることを示した。
論文 参考訳(メタデータ) (2024-03-24T02:45:34Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Online Hyperparameter Optimization for Class-Incremental Learning [99.70569355681174]
クラス増分学習(Class-incremental Learning, CIL)は、クラス数がフェーズごとに増加する一方で、分類モデルを訓練することを目的としている。
CILの固有の課題は、安定性と塑性のトレードオフである。すなわち、CILモデルは古い知識を保ち、新しい知識を吸収するためにプラスチックを保たなければならない。
本稿では,事前設定を知らずにトレードオフを適応的に最適化するオンライン学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-11T17:58:51Z) - Hyperdimensional Computing vs. Neural Networks: Comparing Architecture
and Learning Process [3.244375684001034]
我々は、HDCとニューラルネットワークの比較研究を行い、HDCを前もって訓練された非常にコンパクトなニューラルネットワークから引き出すことができる異なる角度を提供する。
実験の結果,従来のHDCモデルと学習ベースのHDCモデルから,ニューラルネットワーク由来のHDCモデルを最大21%,精度5%向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-07-24T21:23:50Z) - GraphHD: Efficient graph classification using hyperdimensional computing [58.720142291102135]
本稿では,HDCを用いたグラフ分類のベースライン手法を提案する。
実世界のグラフ分類問題におけるGraphHDの評価を行った。
その結果,最新のグラフニューラルネットワーク (GNN) と比較すると,提案手法の精度は同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T17:32:58Z) - EnHDC: Ensemble Learning for Brain-Inspired Hyperdimensional Computing [2.7462881838152913]
本稿では,超次元コンピューティングの文脈において,アンサンブル学習を探求する最初の試みについて述べる。
本稿では,EnHDCと呼ばれる最初のアンサンブルHDCモデルを提案する。
本研究では,1つのHDC分類器に対して平均3.2%の精度向上を達成できることを示す。
論文 参考訳(メタデータ) (2022-03-25T09:54:00Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - A Brain-Inspired Low-Dimensional Computing Classifier for Inference on
Tiny Devices [17.976792694929063]
超次元コンピューティング(HDC)に代わる低次元コンピューティング(LDC)を提案する。
我々は、LCC分類器をニューラルネットワークにマッピングし、原則化されたトレーニングアプローチを用いてモデルを最適化する。
我々のLCC分類器は、既存の脳にインスパイアされたHDCモデルに対して圧倒的な優位性を提供し、特に小さなデバイスでの推論に適している。
論文 参考訳(メタデータ) (2022-03-09T17:20:12Z) - AC/DC: Alternating Compressed/DeCompressed Training of Deep Neural
Networks [78.62086125399831]
本稿では、ディープニューラルネットワーク(DNN)のAC/DCトレーニング(Alternating Compressed/DeCompressed)と呼ばれる一般的なアプローチを提案する。
AC/DCは、類似の計算予算で既存のスパーストレーニング方法よりも精度が高い。
AC/DCの重要な特性は、密度とスパースモデルのコトレーニングが可能であり、トレーニングプロセスの終了時に正確なスパース・ダンスモデルペアが得られることである。
論文 参考訳(メタデータ) (2021-06-23T13:23:00Z) - HDXplore: Automated Blackbox Testing of Brain-Inspired Hyperdimensional
Computing [2.3549478726261883]
HDCは、実際の数値ではなく、神経活動の深い抽象的なパターンで計算する脳の動作メカニズムに基づく、新たなコンピューティングスキームである。
DNNのような従来のMLアルゴリズムと比較して、HDCはメモリ中心であり、モデルサイズが比較的小さく、コストが低く、ワンショット学習などの利点がある。
我々は,HDCモデルの予期せぬ動作や誤動作を明らかにするブラックボックス差分テストベースのフレームワークであるHDXploreを開発した。
論文 参考訳(メタデータ) (2021-05-26T18:08:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。