論文の概要: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- arxiv url: http://arxiv.org/abs/2303.08255v1
- Date: Tue, 14 Mar 2023 22:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:21:59.709520
- Title: Model-to-Circuit Cross-Approximation For Printed Machine Learning
Classifiers
- Title(参考訳): 印刷機械学習分類器のモデルと回路のクロス近似
- Authors: Giorgos Armeniakos, Georgios Zervakis, Dimitrios Soudris, Mehdi B.
Tahoori, J\"org Henkel
- Abstract要約: プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
PEにおける大きな特徴サイズは、PEにおける複雑なMLモデルの実現を禁止している。
本稿では,PEにおける複雑なMLモデルを実現するため,自動層間近似フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.865819809855699
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Printed electronics (PE) promises on-demand fabrication, low non-recurring
engineering costs, and sub-cent fabrication costs. It also allows for high
customization that would be infeasible in silicon, and bespoke architectures
prevail to improve the efficiency of emerging PE machine learning (ML)
applications. Nevertheless, large feature sizes in PE prohibit the realization
of complex ML models in PE, even with bespoke architectures. In this work, we
present an automated, cross-layer approximation framework tailored to bespoke
architectures that enable complex ML models, such as Multi-Layer Perceptrons
(MLPs) and Support Vector Machines (SVMs), in PE. Our framework adopts
cooperatively a hardware-driven coefficient approximation of the ML model at
algorithmic level, a netlist pruning at logic level, and a voltage over-scaling
at the circuit level. Extensive experimental evaluation on 12 MLPs and 12 SVMs
and more than 6000 approximate and exact designs demonstrates that our
model-to-circuit cross-approximation delivers power and area optimal designs
that, compared to the state-of-the-art exact designs, feature on average 51%
and 66% area and power reduction, respectively, for less than 5% accuracy loss.
Finally, we demonstrate that our framework enables 80% of the examined
classifiers to be battery-powered with almost identical accuracy with the exact
designs, paving thus the way towards smart complex printed applications.
- Abstract(参考訳): プリントエレクトロニクス(PE)は、オンデマンド製造、低い非再帰エンジニアリングコスト、サブセント製造コストを約束する。
また、シリコンでは実現不可能な高度なカスタマイズを可能にし、新しいPE機械学習(ML)アプリケーションの効率を改善するために、Bespokeアーキテクチャが普及している。
それでも、PEにおける大きな特徴サイズは、複雑なMLモデルの実現を禁止している。
本稿では,peにおける多層パーセプトロン(mlps)やサポートベクターマシン(svm)といった複雑なmlモデルを実現する,独自アーキテクチャに合わせた,自動化されたクロスレイヤー近似フレームワークを提案する。
本フレームワークは,アルゴリズムレベルでのMLモデルのハードウェア駆動係数近似,論理レベルでのネットリストプルーニング,回路レベルでの電圧オーバースケーリングを協調的に採用する。
12のMLPと12のSVMと6000以上の近似および正確な設計を総合的に評価した結果、我々のモデルと回路のクロス近似は、最先端の正確な設計と比較すると、平均51%および66%の領域に、5%未満の精度で電力と面積の最適設計を提供することを示した。
最後に,本フレームワークは,テスト対象の分類器の80%を,正確な設計とほぼ同一の精度でバッテリ駆動できることを示した。
関連論文リスト
- DeeR-VLA: Dynamic Inference of Multimodal Large Language Models for Efficient Robot Execution [114.61347672265076]
実世界のロボットのためのMLLMの開発は、ロボットプラットフォームで利用可能な計算能力とメモリ容量が典型的に限られているため、難しい。
活性化MLLMのサイズを自動的に調整するロボットビジョンランゲージ・アクション・モデル(DeeR)の動的早期実行フレームワークを提案する。
DeeR は LLM の計算コストを 5.2-6.5x に削減し、GPU のメモリを 2-6x に削減した。
論文 参考訳(メタデータ) (2024-11-04T18:26:08Z) - Mini-InternVL: A Flexible-Transfer Pocket Multimodal Model with 5% Parameters and 90% Performance [78.48606021719206]
Mini-InternVL は 1B から 4B までのパラメータを持つ一連の MLLM であり、パラメータの 5% しか持たない性能の90% を達成している。
我々は,ダウンストリームタスクにおける特化モデルの転送と性能向上を可能にする,Mini-InternVLの統一適応フレームワークを開発した。
論文 参考訳(メタデータ) (2024-10-21T17:58:20Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Embedding Hardware Approximations in Discrete Genetic-based Training for Printed MLPs [1.4694098707981968]
Printed Electronics (PE)は、伸縮性、適合性、および非有毒なハードウェアを可能にする。
PEは大きな機能サイズで制約されており、機械学習(ML)認識回路のような複雑な回路を実装することは困難である。
本稿では,ハードウェア近似をトレーニングプロセスに統合することにより,近似計算の利点を最大化する。
論文 参考訳(メタデータ) (2024-02-05T11:52:23Z) - Bespoke Approximation of Multiplication-Accumulation and Activation Targeting Printed Multilayer Perceptrons [0.8274768545559366]
Printed Electronics (PE) は、非再帰エンジニアリングコスト、超低製造コスト、オンデマンド製造など、非並列的な機能を提供している。
PEは、その大きな特徴サイズのためにある種の制限に直面しており、複雑な回路の実現を妨げる。
超低消費電力多層パーセプトロン(MLP)分類器を設計するための自動フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-29T14:16:11Z) - Modular Quantization-Aware Training for 6D Object Pose Estimation [52.9436648014338]
エッジアプリケーションは、リソース制約された組み込みプラットフォーム上で効率的な6Dオブジェクトのポーズ推定を要求する。
本稿では,適応的かつ高精度な量子化学習戦略であるMQAT(Modular Quantization-Aware Training)を紹介する。
MQATは、モジュール固有のビット精度を導出し、モジュール固有の量子化シーケンスを導出し、最先端の均一および混合精度の量子化技術によって生成されたものより優れた量子化モデルをもたらす。
論文 参考訳(メタデータ) (2023-03-12T21:01:54Z) - Co-Design of Approximate Multilayer Perceptron for Ultra-Resource
Constrained Printed Circuits [4.865819809855699]
Printed Electronics (PE) では、複雑な印刷機械学習回路の実現が禁止されている。
このフレームワークは、近似計算の原理を利用して、超リソース制約付きプリント多層パーセプトロン(MLP)を実現する。
評価の結果,最先端のベースラインと比較して,回路は平均6倍 (5.7x) 以下の領域 (電力) と1%未満の精度損失を特徴としている。
論文 参考訳(メタデータ) (2023-02-28T13:55:19Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Squeezeformer: An Efficient Transformer for Automatic Speech Recognition [99.349598600887]
Conformerは、そのハイブリッドアテンション・コンボリューションアーキテクチャに基づいて、様々な下流音声タスクの事実上のバックボーンモデルである。
Squeezeformerモデルを提案する。これは、同じトレーニングスキームの下で、最先端のASRモデルよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-06-02T06:06:29Z) - Cross-Layer Approximation For Printed Machine Learning Circuits [4.865819809855699]
印刷エレクトロニクス(PE)における機械学習(ML)アーキテクチャに適した層間近似を提案し,実装する。
その結果, クロス近似は, 最先端の精密設計と比較して, 平均面積47%, 消費電力44%, 精度1%以下で最適設計を提供することを示した。
論文 参考訳(メタデータ) (2022-03-11T13:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。