論文の概要: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2303.08255v1
- Date: Tue, 14 Mar 2023 22:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:21:59.709520
- Title: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- Title(参考訳): 印刷機械学習分類器のモデルと回路のクロス近似
- Authors: Giorgos Armeniakos, Georgios Zervakis, Dimitrios Soudris, Mehdi B.
Tahoori, J\"org Henkel
- Abstract要約: プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
PEにおける大きな特徴サイズは、PEにおける複雑なMLモデルの実現を禁止している。
本稿では,PEにおける複雑なMLモデルを実現するため,自動層間近似フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.865819809855699
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Printed electronics (PE) promises on-demand fabrication, low non-recurring
engineering costs, and sub-cent fabrication costs. It also allows for high
customization that would be infeasible in silicon, and bespoke architectures
prevail to improve the efficiency of emerging PE machine learning (ML)
applications. Nevertheless, large feature sizes in PE prohibit the realization
of complex ML models in PE, even with bespoke architectures. In this work, we
present an automated, cross-layer approximation framework tailored to bespoke
architectures that enable complex ML models, such as Multi-Layer Perceptrons
(MLPs) and Support Vector Machines (SVMs), in PE. Our framework adopts
cooperatively a hardware-driven coefficient approximation of the ML model at
algorithmic level, a netlist pruning at logic level, and a voltage over-scaling
at the circuit level. Extensive experimental evaluation on 12 MLPs and 12 SVMs
and more than 6000 approximate and exact designs demonstrates that our
model-to-circuit cross-approximation delivers power and area optimal designs
that, compared to the state-of-the-art exact designs, feature on average 51%
and 66% area and power reduction, respectively, for less than 5% accuracy loss.
Finally, we demonstrate that our framework enables 80% of the examined
classifiers to be battery-powered with almost identical accuracy with the exact
designs, paving thus the way towards smart complex printed applications.
- Abstract(参考訳): プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
また、シリコンでは実現不可能な高度なカスタマイズを可能にし、新しいPE機械学習(ML)アプリケーションの効率を改善するために、Bespokeアーキテクチャが普及している。
それでも、PEにおける大きな特徴サイズは、複雑なMLモデルの実現を禁止している。
本稿では,peにおける多層パーセプトロン(mlps)やサポートベクターマシン(svm)といった複雑なmlモデルを実現する,独自アーキテクチャに合わせた,自動化されたクロスレイヤー近似フレームワークを提案する。
本フレームワークは,アルゴリズムレベルでのMLモデルのハードウェア駆動係数近似,論理レベルでのネットリストプルーニング,回路レベルでの電圧オーバースケーリングを協調的に採用する。
12のMLPと12のSVMと6000以上の近似および正確な設計を総合的に評価した結果、我々のモデルと回路のクロス近似は、最先端の正確な設計と比較すると、平均51%および66%の領域に、5%未満の精度で電力と面積の最適設計を提供することを示した。
最後に,本フレームワークは,テスト対象の分類器の80%を,正確な設計とほぼ同一の精度でバッテリ駆動できることを示した。
関連論文リスト
- Unifying Synergies between Self-supervised Learning and Dynamic
Computation [69.07249091840494]
自己教師付き学習(SSL)アプローチは、コンピュータビジョンベンチマークで教師付き学習のパフォーマンスをエミュレートすることで、大きな進歩を遂げている。
これは、かなり大きなモデルサイズと計算コストのかかるトレーニング戦略のコストが伴うため、リソース制約のある産業環境では実用的ではない。
本稿では,SSL と DC のパラダイム間の相互作用の新たな視点を提案し,より密集した(疎軽量な)サブネットワークをスクラッチから学習する。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - Open-source FPGA-ML codesign for the MLPerf Tiny Benchmark [11.575901540758574]
我々は,フィールドプログラマブルゲートアレイ(FPGA)プラットフォーム上でのTiny Inference Benchmarkの開発経験を示す。
我々は、FPGA上で最適化されたニューラルネットワークのAIハードウェアコーデックを民主化することを目的として、オープンソースのhls4mlとFINN perJを使用している。
ソリューションはシステムオンチップ(Pynq-Z2)と純粋なFPGA(Arty A7-100T)プラットフォームにデプロイされる。
論文 参考訳(メタデータ) (2022-06-23T15:57:17Z) - Squeezeformer: An Efficient Transformer for Automatic Speech Recognition [99.349598600887]
Conformerは、そのハイブリッドアテンション・コンボリューションアーキテクチャに基づいて、様々な下流音声タスクの事実上のバックボーンモデルである。
Squeezeformerモデルを提案する。これは、同じトレーニングスキームの下で、最先端のASRモデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-06-02T06:06:29Z) - Approximate Decision Trees For Machine Learning Classification on Tiny
Printed Circuits [0.7349727826230862]
印刷電子(PE)は従来の評価基準ではシリコン系システムと競合することができない。
PEはオンデマンドの超低価格製造、柔軟性、非毒性などの魅力的な特性を提供する。
PEの魅力的な特性にもかかわらず、PEの大きな特徴は複雑なプリント回路の実現を禁止している。
論文 参考訳(メタデータ) (2022-03-15T15:47:59Z) - Cross-Layer Approximation For Printed Machine Learning Circuits [4.865819809855699]
印刷エレクトロニクス(PE)における機械学習(ML)アーキテクチャに適した層間近似を提案し,実装する。
その結果, クロス近似は, 最先端の精密設計と比較して, 平均面積47%, 消費電力44%, 精度1%以下で最適設計を提供することを示した。
論文 参考訳(メタデータ) (2022-03-11T13:41:15Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Low-Precision Hardware Architectures Meet Recommendation Model Inference
at Scale [11.121380180647769]
本稿では,低精度ハードウェアに参照レコメンデーションモデルを適用するための検索戦略について紹介する。
また,ツールチェーンの設計と開発について論じ,モデルの精度を生涯にわたって維持する。
これらの教訓は,ハードウェアアーキテクチャとソフトウェアエンジニアリングの協調設計を促進するものだ,と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-26T16:42:33Z) - Efficient pre-training objectives for Transformers [84.64393460397471]
本研究はトランスフォーマーモデルにおける高効率事前学習目標について検討する。
マスクトークンの除去と損失時のアウトプット全体の考慮が,パフォーマンス向上に不可欠な選択であることを証明する。
論文 参考訳(メタデータ) (2021-04-20T00:09:37Z) - Understanding the effect of hyperparameter optimization on machine
learning models for structure design problems [8.504300709184177]
機械学習アルゴリズム(MLAs)は、コンピュータ支援工学設計における代理モデルとして実装されている。
代理モデルの精度とロバスト性に対するハイパーパラメータの影響に関する体系的な研究の欠如がある。
GPR(Gaussian Process Regression)、SVM(Support Vector Machine)、RFR(Random Forest Regression)、ANN(Artificial Neural Network)の4つが頻繁に使用されている。
その結果,HOpt は一般に MLA モデルの性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-04T14:57:34Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。