論文の概要: An FPGA Architecture for Online Learning using the Tsetlin Machine
- arxiv url: http://arxiv.org/abs/2306.01027v1
- Date: Thu, 1 Jun 2023 13:33:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 18:30:13.249149
- Title: An FPGA Architecture for Online Learning using the Tsetlin Machine
- Title(参考訳): Tsetlin マシンを用いたオンライン学習のためのFPGAアーキテクチャ
- Authors: Samuel Prescott and Adrian Wheeldon and Rishad Shafik and Tousif
Rahman and Alex Yakovlev and Ole-Christoffer Granmo
- Abstract要約: 本稿では,オンライン学習のための新しいフィールドプログラミング可能なゲートアレイ基盤を提案する。
Tsetlin Machineと呼ばれる低複雑さの機械学習アルゴリズムを実装している。
本稿では,提案するインフラを用いたオンライン学習の事例と,エネルギー/性能/精度のトレードオフを実証する。
- 参考スコア(独自算出の注目度): 5.140342614848069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a need for machine learning models to evolve in unsupervised
circumstances. New classifications may be introduced, unexpected faults may
occur, or the initial dataset may be small compared to the data-points
presented to the system during normal operation. Implementing such a system
using neural networks involves significant mathematical complexity, which is a
major issue in power-critical edge applications.
This paper proposes a novel field-programmable gate-array infrastructure for
online learning, implementing a low-complexity machine learning algorithm
called the Tsetlin Machine. This infrastructure features a custom-designed
architecture for run-time learning management, providing on-chip offline and
online learning. Using this architecture, training can be carried out on-demand
on the \ac{FPGA} with pre-classified data before inference takes place.
Additionally, our architecture provisions online learning, where training can
be interleaved with inference during operation. Tsetlin Machine (TM) training
naturally descends to an optimum, with training also linked to a threshold
hyper-parameter which is used to reduce the probability of issuing feedback as
the TM becomes trained further. The proposed architecture is modular, allowing
the data input source to be easily changed, whilst inbuilt cross-validation
infrastructure allows for reliable and representative results during system
testing. We present use cases for online learning using the proposed
infrastructure and demonstrate the energy/performance/accuracy trade-offs.
- Abstract(参考訳): 教師なしの状況下で進化する機械学習モデルが必要である。
新たな分類が導入されたり、予期せぬ故障が発生したり、データセットが正常な操作中にシステムに提示されるデータポイントに比べて小さい場合があります。
ニューラルネットワークを用いたこのようなシステムの実装には、重要な数学的複雑さが伴う。
本稿では,オンライン学習のための新しいフィールドプログラミング可能なゲートアレイ基盤を提案し,tsetlin machineと呼ばれる低複雑さ機械学習アルゴリズムを実装した。
このインフラストラクチャは、ランタイム学習管理のためのカスタム設計のアーキテクチャを備え、オンチップのオフラインおよびオンライン学習を提供する。
このアーキテクチャを使用すると、推論が行われる前に、事前に分類されたデータで \ac{FPGA} 上でオンデマンドでトレーニングを実行することができる。
さらに、我々のアーキテクチャはオンライン学習を提供し、そこではトレーニングを運用中に推論とインターリーブすることができる。
Tsetlin Machine (TM) のトレーニングは、TMがさらにトレーニングされるにつれてフィードバックを発行する確率を減らすために使用される閾値ハイパーパラメータにも関連付けられる。
提案するアーキテクチャはモジュール化され、データ入力ソースの変更が容易になる一方で、組み込みのクロスバリデーションインフラストラクチャでは、システムテスト中に信頼性と代表的な結果が得られる。
提案するインフラを用いたオンライン学習のユースケースについて,エネルギー/性能/精度のトレードオフを実証する。
関連論文リスト
- Toward Efficient Convolutional Neural Networks With Structured Ternary Patterns [1.1965844936801797]
畳み込みニューラルネットワーク(ConvNets)は、ローカルデバイスリソースに厳しい要求を課す。
本稿では,静的畳み込みフィルタを用いて効率的なConvNetアーキテクチャの設計を行う。
論文 参考訳(メタデータ) (2024-07-20T10:18:42Z) - Deep Feature Learning for Wireless Spectrum Data [0.5809784853115825]
本稿では,無線通信クラスタリングのための特徴表現を教師なしで学習する手法を提案する。
自動表現学習は,無線伝送バーストの形状を含む微細なクラスタを抽出できることを示す。
論文 参考訳(メタデータ) (2023-08-07T12:27:19Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Inductive biases and Self Supervised Learning in modelling a physical
heating system [0.0]
本稿では,物理系に関する帰納バイアスを推測する。
このバイアスを使って、実際のシステムをモデル化できる新しいニューラルネットワークアーキテクチャを導出します。
提案されたアーキテクチャファミリーであるDelayは、遅延応答を持つシステムを制御するために実際のシナリオで使用できる。
論文 参考訳(メタデータ) (2021-04-23T08:50:41Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。