論文の概要: Approximate Multiplier Induced Error Propagation in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2512.06537v1
- Date: Sat, 06 Dec 2025 19:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.401738
- Title: Approximate Multiplier Induced Error Propagation in Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークにおける近似乗算器による誤差伝播
- Authors: A. M. H. H. Alahakoon, Hassaan Saadat, Darshana Jayasinghe, Sri Parameswaran,
- Abstract要約: この研究は、AxMの統計的誤差モーメントと一般行列乗法における誘導歪みを結合する解析的枠組みを示す。
このフレームワークは、行動やハードウェアレベルのシミュレーションの軽量な代替手段を提供することで、ディープニューラルネットワーク(DNN)の推論品質に対するAxMの影響を迅速に推定することができる。
- 参考スコア(独自算出の注目度): 0.9099663022952496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) rely heavily on dense arithmetic operations, motivating the use of Approximate Multipliers (AxMs) to reduce energy consumption in hardware accelerators. However, a rigorous mathematical characterization of how AxMs error distributions influence DNN accuracy remains underdeveloped. This work presents an analytical framework that connects the statistical error moments of an AxM to the induced distortion in General Matrix Multiplication (GEMM). Using the Frobenius norm of the resulting error matrix, we derive a closed form expression for practical DNN dimensions that demonstrates the distortion is predominantly governed by the multiplier mean error (bias). To evaluate this model in realistic settings, we incorporate controlled error injection into GEMM and convolution layers and examine its effect on ImageNet scale networks. The predicted distortion correlates strongly with the observed accuracy degradation, and an error configurable AxM case study implemented on an FPGA further confirms the analytical trends. By providing a lightweight alternative to behavioral or hardware level simulations, this framework enables rapid estimation of AxM impact on DNN inference quality.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ハードウェアアクセラレーターのエネルギー消費を減らすために近似乗算器(AxM)の使用を動機として、密度の高い演算に大きく依存している。
しかし、AxMsの誤差分布がDNNの精度にどのように影響するかという厳密な数学的特徴はいまだ未発達である。
本稿では,AxMの統計的誤差モーメントと一般行列乗法(GEMM)の誘導歪みを結合する解析的枠組みを提案する。
得られた誤差行列のフロベニウスノルムを用いて、歪みが乗算平均誤差(バイアス)によって支配されることを示す実用的なDNN次元の閉形式式を導出する。
このモデルを現実的な設定で評価するために,GEMMおよび畳み込み層に制御誤差注入を組み込み,イメージネットスケールネットワークへの影響を検証した。
予測歪みは観測された精度劣化と強く相関し,FPGAに実装された誤差設定可能なAxMケーススタディは解析的傾向をさらに確認する。
このフレームワークは、行動やハードウェアレベルのシミュレーションの軽量な代替手段を提供することで、DNNの推論品質に対するAxMの影響を迅速に推定することができる。
関連論文リスト
- An End-to-End Differentiable, Graph Neural Network-Embedded Pore Network Model for Permeability Prediction [0.42970700836450487]
細孔ネットワークモデル (PNMs) は細孔スケールの油圧コンダクタンスを推定し、その精度を複雑な構造で制限する。
本稿では,グラフニューラルネットワーク(GNN)をPNMに組み込む,エンドツーエンドの差別化可能なハイブリッドフレームワークを提案する。
このモデルは高い精度を達成し、様々なスケールでうまく結合し、純粋なデータ駆動型アプローチと従来のPNMアプローチの両方より優れている。
論文 参考訳(メタデータ) (2025-09-17T09:15:23Z) - Dimension reduction for derivative-informed operator learning: An analysis of approximation errors [3.7051887945349518]
ニューラルネットワークによる無限次元分離可能なヒルベルト空間間の非線形作用素の微分インフォームド学習について検討する。
無限次元ガウス入力測度のソボレフノルムにおけるニューラル演算子の近似誤差を解析する。
論文 参考訳(メタデータ) (2025-04-11T17:56:52Z) - Enhancing Accuracy in Deep Learning Using Random Matrix Theory [4.00671924018776]
深層ニューラルネットワーク(DNN)のトレーニングにおけるランダム行列理論(RMT)の適用について検討する。
数値計算の結果,DNNとCNNの精度は低下せず,パラメータの大幅な削減につながることが明らかとなった。
この結果から,より効率的かつ正確なディープラーニングモデル構築のためのRTTの実践的応用に関する貴重な知見が得られた。
論文 参考訳(メタデータ) (2023-10-04T21:17:31Z) - On Error Propagation of Diffusion Models [77.91480554418048]
DMのアーキテクチャにおける誤り伝播を数学的に定式化するための理論的枠組みを開発する。
累積誤差を正規化項として適用して誤差伝搬を低減する。
提案した正規化はエラーの伝播を低減し,バニラDMを大幅に改善し,以前のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-08-09T15:31:17Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - MemSE: Fast MSE Prediction for Noisy Memristor-Based DNN Accelerators [5.553959304125023]
我々は,行列ベクトル乗算(MVM)を計算するためにmemristorを用いたDNNの平均二乗誤差を理論的に解析する。
DNNモデルのサイズを小さくする必要性から量子化ノイズと、中間値のプログラミングにおける可変性から生じるプログラミングノイズの両方を考慮に入れている。
提案手法はモンテカルロシミュレーションよりも約2桁高速であり, 与えられた電力制約に対して最小限の誤差を達成するために, 実装パラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-03T18:10:43Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - On Mean Absolute Error for Deep Neural Network Based Vector-to-Vector
Regression [79.86233860519621]
我々は,ディープニューラルネットワーク(DNN)に基づくベクトル-ベクトル回帰の損失関数として,平均絶対誤差(MAE)の特性を利用する。
我々は,MAEをラプラシアン分布によってモデル化された誤差として解釈できることを示す。
論文 参考訳(メタデータ) (2020-08-12T22:41:26Z) - Analyzing Upper Bounds on Mean Absolute Errors for Deep Neural Network
Based Vector-to-Vector Regression [79.86233860519621]
本稿では,ディープニューラルネットワーク(DNN)を用いたベクトル-ベクトル回帰において,平均絶対誤差と期待特徴誤差の間に一般化された誤差(MAE)が存在することを示す。
DNNに基づくベクトル-ベクトル回帰のためのMAEの上界を提案する。
論文 参考訳(メタデータ) (2020-08-04T19:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。