論文の概要: Resource-Efficient and Robust Inference of Deep and Bayesian Neural Networks on Embedded and Analog Computing Platforms
- arxiv url: http://arxiv.org/abs/2510.24951v1
- Date: Tue, 28 Oct 2025 20:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.784614
- Title: Resource-Efficient and Robust Inference of Deep and Bayesian Neural Networks on Embedded and Analog Computing Platforms
- Title(参考訳): 組み込みおよびアナログコンピューティングプラットフォーム上でのディープニューラルネットワークとベイズニューラルネットワークの資源効率とロバスト推論
- Authors: Bernhard Klein,
- Abstract要約: この研究は、アルゴリズムとハードウェアの効率を共同で追求することで、ニューラルネットワークのリソース効率と堅牢な推論を促進する。
最初のコントリビューションであるGalenは、感度分析とハードウェア・イン・ザ・ループフィードバックによって導かれる自動層特異的圧縮を実行する。
第2の作業は確率的推論を前進させ、コストのかかるサンプリングを置き換え、コンパイラスタックに統合し、組み込み推論を最適化する分析およびアンサンブル近似を開発する。
- 参考スコア(独自算出の注目度): 0.4441866681085516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While modern machine learning has transformed numerous application domains, its growing computational demands increasingly constrain scalability and efficiency, particularly on embedded and resource-limited platforms. In practice, neural networks must not only operate efficiently but also provide reliable predictions under distributional shifts or unseen data. Bayesian neural networks offer a principled framework for quantifying uncertainty, yet their computational overhead further compounds these challenges. This work advances resource-efficient and robust inference for both conventional and Bayesian neural networks through the joint pursuit of algorithmic and hardware efficiency. The former reduces computation through model compression and approximate Bayesian inference, while the latter optimizes deployment on digital accelerators and explores analog hardware, bridging algorithmic design and physical realization. The first contribution, Galen, performs automatic layer-specific compression guided by sensitivity analysis and hardware-in-the-loop feedback. Analog accelerators offer efficiency gains at the cost of noise; this work models device imperfections and extends noisy training to nonstationary conditions, improving robustness and stability. A second line of work advances probabilistic inference, developing analytic and ensemble approximations that replace costly sampling, integrate into a compiler stack, and optimize embedded inference. Finally, probabilistic photonic computing introduces a paradigm where controlled analog noise acts as an intrinsic entropy source, enabling fast, energy-efficient probabilistic inference directly in hardware. Together, these studies demonstrate how efficiency and reliability can be advanced jointly through algorithm-hardware co-design, laying the foundation for the next generation of trustworthy, energy-efficient machine-learning systems.
- Abstract(参考訳): 現代の機械学習は多くのアプリケーションドメインに変化をもたらしたが、その増大する計算需要はスケーラビリティと効率、特に組み込みおよびリソース制限されたプラットフォームにますます制約を課している。
実際には、ニューラルネットワークは効率的に動作するだけでなく、分散シフトや見えないデータの下で信頼性の高い予測を提供する必要がある。
ベイズニューラルネットワークは不確実性を定量化するための原則的な枠組みを提供するが、その計算オーバーヘッドはこれらの課題をさらに複雑にする。
この研究は、アルゴリズムとハードウェアの効率を共同で追求することで、従来のニューラルネットワークとベイズニューラルネットワークの両方に対するリソース効率と堅牢な推論を推し進める。
前者はモデル圧縮と近似ベイズ推論による計算を削減し、後者はデジタルアクセラレータへの展開を最適化し、アナログハードウェア、ブリッジアルゴリズム設計、物理実現を探索する。
最初のコントリビューションであるGalenは、感度分析とハードウェア・イン・ザ・ループフィードバックによって導かれる自動層特異的圧縮を実行する。
アナログアクセラレータは、ノイズのコストで効率性の向上を提供する。この作業はデバイス不完全性をモデル化し、ノイズのないトレーニングを非定常条件に拡張し、堅牢性と安定性を向上する。
第2の作業は確率的推論を前進させ、コストのかかるサンプリングを置き換え、コンパイラスタックに統合し、組み込み推論を最適化する分析およびアンサンブル近似を開発する。
最後に、確率的フォトニックコンピューティングは、制御されたアナログノイズが本質的なエントロピー源として機能し、ハードウェアに直接高速でエネルギー効率の良い確率的推論を可能にするパラダイムを導入する。
これらの研究は、アルゴリズム・ハードウエアの共同設計を通じて効率性と信頼性を共同で向上させることを実証し、次世代の信頼性の高いエネルギー効率の高い機械学習システムの基礎を築いた。
関連論文リスト
- Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - SySMOL: Co-designing Algorithms and Hardware for Neural Networks with Heterogeneous Precisions [20.241671088121144]
最近の量子化技術は、非常に微細な粒度で不均一な精度を実現している。
これらのネットワークは、個々の変数の精度設定をデコードし、変数を調整し、きめ細かい混合精度計算機能を提供するために、追加のハードウェアを必要とする。
ネットワークを細粒度の不均一な精度で効率的に実行するためのエンド・ツー・エンド協調設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T17:20:09Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。