論文の概要: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2303.08255v1
- Date: Tue, 14 Mar 2023 22:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:21:59.709520
- Title: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- Title(参考訳): 印刷機械学習分類器のモデルと回路のクロス近似
- Authors: Giorgos Armeniakos, Georgios Zervakis, Dimitrios Soudris, Mehdi B.
Tahoori, J\"org Henkel
- Abstract要約: プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
PEにおける大きな特徴サイズは、PEにおける複雑なMLモデルの実現を禁止している。
本稿では,PEにおける複雑なMLモデルを実現するため,自動層間近似フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.865819809855699
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Printed electronics (PE) promises on-demand fabrication, low non-recurring
engineering costs, and sub-cent fabrication costs. It also allows for high
customization that would be infeasible in silicon, and bespoke architectures
prevail to improve the efficiency of emerging PE machine learning (ML)
applications. Nevertheless, large feature sizes in PE prohibit the realization
of complex ML models in PE, even with bespoke architectures. In this work, we
present an automated, cross-layer approximation framework tailored to bespoke
architectures that enable complex ML models, such as Multi-Layer Perceptrons
(MLPs) and Support Vector Machines (SVMs), in PE. Our framework adopts
cooperatively a hardware-driven coefficient approximation of the ML model at
algorithmic level, a netlist pruning at logic level, and a voltage over-scaling
at the circuit level. Extensive experimental evaluation on 12 MLPs and 12 SVMs
and more than 6000 approximate and exact designs demonstrates that our
model-to-circuit cross-approximation delivers power and area optimal designs
that, compared to the state-of-the-art exact designs, feature on average 51%
and 66% area and power reduction, respectively, for less than 5% accuracy loss.
Finally, we demonstrate that our framework enables 80% of the examined
classifiers to be battery-powered with almost identical accuracy with the exact
designs, paving thus the way towards smart complex printed applications.
- Abstract(参考訳): プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
また、シリコンでは実現不可能な高度なカスタマイズを可能にし、新しいPE機械学習(ML)アプリケーションの効率を改善するために、Bespokeアーキテクチャが普及している。
それでも、PEにおける大きな特徴サイズは、複雑なMLモデルの実現を禁止している。
本稿では,peにおける多層パーセプトロン(mlps)やサポートベクターマシン(svm)といった複雑なmlモデルを実現する,独自アーキテクチャに合わせた,自動化されたクロスレイヤー近似フレームワークを提案する。
本フレームワークは,アルゴリズムレベルでのMLモデルのハードウェア駆動係数近似,論理レベルでのネットリストプルーニング,回路レベルでの電圧オーバースケーリングを協調的に採用する。
12のMLPと12のSVMと6000以上の近似および正確な設計を総合的に評価した結果、我々のモデルと回路のクロス近似は、最先端の正確な設計と比較すると、平均51%および66%の領域に、5%未満の精度で電力と面積の最適設計を提供することを示した。
最後に,本フレームワークは,テスト対象の分類器の80%を,正確な設計とほぼ同一の精度でバッテリ駆動できることを示した。
関連論文リスト
- Embedding Hardware Approximations in Discrete Genetic-based Training for
Printed MLPs [1.6052247221616553]
Printed Electronics (PE)は、伸縮性、適合性、および非有毒なハードウェアを可能にする。
PEは大きな機能サイズで制約されており、機械学習(ML)認識回路のような複雑な回路を実装することは困難である。
本稿では,ハードウェア近似をトレーニングプロセスに統合することにより,近似計算の利点を最大化する。
論文 参考訳(メタデータ) (2024-02-05T11:52:23Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Bespoke Approximation of Multiplication-Accumulation and Activation
Targeting Printed Multilayer Perceptrons [0.8768075668637361]
Printed Electronics (PE) は、非再帰エンジニアリングコスト、超低製造コスト、オンデマンド製造など、非並列的な機能を提供している。
PEは、その大きな特徴サイズのためにある種の制限に直面しており、複雑な回路の実現を妨げる。
超低消費電力多層パーセプトロン(MLP)分類器を設計するための自動フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-29T14:16:11Z) - Modular Quantization-Aware Training: Increasing Accuracy by Decreasing
Precision in 6D Object Pose Estimation [56.80039657816035]
エッジアプリケーションは、リソース制約された組み込みプラットフォーム上で効率的な6Dオブジェクトのポーズ推定を要求する。
本稿では,適応的かつ高精度な量子化学習戦略であるMQAT(Modular Quantization-Aware Training)を紹介する。
MQATは、モジュール固有のビット精度を導出し、モジュール固有の量子化シーケンスを導出し、最先端の均一および混合精度の量子化技術によって生成されたものより優れた量子化モデルをもたらす。
論文 参考訳(メタデータ) (2023-03-12T21:01:54Z) - Co-Design of Approximate Multilayer Perceptron for Ultra-Resource
Constrained Printed Circuits [4.865819809855699]
Printed Electronics (PE) では、複雑な印刷機械学習回路の実現が禁止されている。
このフレームワークは、近似計算の原理を利用して、超リソース制約付きプリント多層パーセプトロン(MLP)を実現する。
評価の結果,最先端のベースラインと比較して,回路は平均6倍 (5.7x) 以下の領域 (電力) と1%未満の精度損失を特徴としている。
論文 参考訳(メタデータ) (2023-02-28T13:55:19Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - Squeezeformer: An Efficient Transformer for Automatic Speech Recognition [99.349598600887]
Conformerは、そのハイブリッドアテンション・コンボリューションアーキテクチャに基づいて、様々な下流音声タスクの事実上のバックボーンモデルである。
Squeezeformerモデルを提案する。これは、同じトレーニングスキームの下で、最先端のASRモデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-06-02T06:06:29Z) - Cross-Layer Approximation For Printed Machine Learning Circuits [4.865819809855699]
印刷エレクトロニクス(PE)における機械学習(ML)アーキテクチャに適した層間近似を提案し,実装する。
その結果, クロス近似は, 最先端の精密設計と比較して, 平均面積47%, 消費電力44%, 精度1%以下で最適設計を提供することを示した。
論文 参考訳(メタデータ) (2022-03-11T13:41:15Z) - Low-Precision Hardware Architectures Meet Recommendation Model Inference
at Scale [11.121380180647769]
本稿では,低精度ハードウェアに参照レコメンデーションモデルを適用するための検索戦略について紹介する。
また,ツールチェーンの設計と開発について論じ,モデルの精度を生涯にわたって維持する。
これらの教訓は,ハードウェアアーキテクチャとソフトウェアエンジニアリングの協調設計を促進するものだ,と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-26T16:42:33Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。