論文の概要: An Overflow/Underflow-Free Fixed-Point Bit-Width Optimization Method for
OS-ELM Digital Circuit
- arxiv url: http://arxiv.org/abs/2103.09791v1
- Date: Wed, 17 Mar 2021 17:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-18 12:52:20.769327
- Title: An Overflow/Underflow-Free Fixed-Point Bit-Width Optimization Method for
OS-ELM Digital Circuit
- Title(参考訳): os-elmディジタル回路のオーバーフロー・アンダーフローフリー固定点ビット幅最適化法
- Authors: Mineto Tsukada, Hiroki Matsutani
- Abstract要約: OS-ELMの定点デジタル回路のオーバーフロー/アンダーフローフリービット幅最適化法を提案する。
実験により, オーバーフロー/アンダーフローフリーなOS-ELMディジタル回路を1.0倍から1.5倍のコストで実現した。
- 参考スコア(独自算出の注目度): 4.748627433101708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently there has been increasing demand for real-time training on
resource-limited IoT devices such as smart sensors, which realizes standalone
online adaptation for streaming data without data transfers to remote servers.
OS-ELM (Online Sequential Extreme Learning Machine) has been one of promising
neural-network-based online algorithms for on-chip learning because it can
perform online training at low computational cost and is easy to implement as a
digital circuit. Existing OS-ELM digital circuits employ fixed-point data
format and the bit-widths are often manually tuned, however, this may cause
overflow or underflow which can lead to unexpected behavior of the circuit. For
on-chip learning systems, an overflow/underflow-free design has a great impact
since online training is continuously performed and the intervals of
intermediate variables will dynamically change as time goes by. In this paper,
we propose an overflow/underflow-free bit-width optimization method for
fixed-point digital circuit of OS-ELM. Experimental results show that our
method realizes overflow/underflow-free OS-ELM digital circuits with 1.0x -
1.5x more area cost compared to an ordinary simulation-based optimization
method where overflow or underflow can happen.
- Abstract(参考訳): 現在、スマートセンサーなどのリソース制限されたIoTデバイス上でのリアルタイムトレーニングの需要が高まっており、リモートサーバへのデータ転送なしに、ストリーミングデータに対するスタンドアロンのオンライン適応を実現している。
OS-ELM(Online Sequential Extreme Learning Machine)は、オンチップ学習のためのニューラルネットワークベースのオンラインアルゴリズムの1つで、計算コストが低く、デジタル回路として実装が容易である。
既存のOS-ELMデジタル回路は固定点データ形式を採用し、ビット幅は手動で調整されることが多いが、これは回路の予期せぬ動作を引き起こす可能性がある。
オンチップ学習システムでは,オンライントレーニングが継続的に行われ,時間とともに中間変数の間隔が動的に変化するため,オーバーフロー/アンダーフローフリーの設計に大きな影響を与える。
本稿では,OS-ELMの固定点ディジタル回路におけるオーバーフロー/アンダーフローフリービット幅最適化手法を提案する。
実験結果から,オーバーフローやアンダーフローが発生するようなシミュレーションベース最適化手法と比較して,オーバーフロー/アンダーフローフリーなOS-ELMディジタル回路の面積コストが1.0x1.5倍になることがわかった。
関連論文リスト
- A Fast Algorithm to Simulate Nonlinear Resistive Networks [0.6526824510982799]
線形不等式制約を持つ二次計画問題として,非線形抵抗ネットワークのシミュレーションのための新しい手法を提案する。
シミュレーション手法は既存のSPICEシミュレーションよりも優れており,150倍高速で最大325倍のネットワークをトレーニングすることができる。
論文 参考訳(メタデータ) (2024-02-18T18:33:48Z) - High Throughput Training of Deep Surrogates from Large Ensemble Runs [38.018735015291156]
ディープサロゲートは一般的に、加速しようとする同じソルバによってゆっくりと生成される限られた量のデータから教師付き方法で訓練される。
シミュレーションの大規模な実行から,これらのモデルのオンライントレーニングを可能にするオープンソースフレームワークを提案する。
熱方程式のサロゲートとして完全に接続されたネットワークのトレーニング実験により,提案手法により,従来のオフライン手順に比べて精度が47%向上し,バッチスループットが13倍向上した8TBのデータを2時間でトレーニングすることが可能となった。
論文 参考訳(メタデータ) (2023-09-28T09:34:52Z) - Differentiable Turbulence II [0.0]
そこで我々は,Navier-Stokes方程式を解くために,ディープラーニングモデルを汎用有限要素数値スキームに統合するためのフレームワークを開発した。
学習したクロージャは、より微細なグリッド上の従来の大規模渦シミュレーションに匹敵する精度で10倍のスピードアップを達成できることを示す。
論文 参考訳(メタデータ) (2023-07-25T14:27:49Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Continual learning autoencoder training for a particle-in-cell
simulation via streaming [52.77024349608834]
今後のエクサスケール時代は 次世代の物理シミュレーションを 高解像度で提供します
これらのシミュレーションは高解像度であり、ディスク上に大量のシミュレーションデータを格納することはほぼ不可能であるため、機械学習モデルのトレーニングに影響を与える。
この研究は、ディスク上のデータなしで、実行中のシミュレーションにニューラルネットワークを同時にトレーニングするアプローチを示す。
論文 参考訳(メタデータ) (2022-11-09T09:55:14Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Scheduling Policy and Power Allocation for Federated Learning in NOMA
Based MEC [21.267954799102874]
Federated Learning(FL)は、データ分散を維持しながらモデルを集中的にトレーニングできる、高度に追求された機械学習技術である。
重み付き和データレートを最大化するために、非直交多重アクセス(NOMA)設定を用いた新しいスケジューリングポリシーと電力割当方式を提案する。
シミュレーションの結果,提案手法は,NOMAベースの無線ネットワークにおいて高いFLテスト精度を実現するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-06-21T23:07:41Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - CSM-NN: Current Source Model Based Logic Circuit Simulation -- A Neural
Network Approach [5.365198933008246]
CSM-NNは、最適化されたニューラルネットワーク構造と処理アルゴリズムを備えたスケーラブルなシミュレーションフレームワークである。
実験によると、CSM-NNはCPU上で動作する最先端のソースモデルベースのシミュレータと比較して、シミュレーション時間を最大6倍に短縮する。
CSM-NNはまた、HSPICEと比較して2%以下の誤差で高い精度のレベルを提供する。
論文 参考訳(メタデータ) (2020-02-13T00:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。