論文の概要: Learning Dynamics in Memristor-Based Equilibrium Propagation
- arxiv url: http://arxiv.org/abs/2512.12428v1
- Date: Sat, 13 Dec 2025 18:57:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.254772
- Title: Learning Dynamics in Memristor-Based Equilibrium Propagation
- Title(参考訳): Memristor-based Equilibrium Propagationにおける学習ダイナミクス
- Authors: Michael Döll, Andreas Müller, Bernd Ulmann,
- Abstract要約: 平衡伝播法(EqProp)を訓練したニューラルネットワークの収束挙動に及ぼす非線形メムリスタ駆動重み更新の影響について検討する。
EqPropは、メムリスタが少なくとも1桁の広い抵抗範囲を示すことを条件として、非線形重み更新の下で堅牢な収束を達成することができる。
- 参考スコア(独自算出の注目度): 0.7266320276728724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Memristor-based in-memory computing has emerged as a promising paradigm to overcome the constraints of the von Neumann bottleneck and the memory wall by enabling fully parallelisable and energy-efficient vector-matrix multiplications. We investigate the effect of nonlinear, memristor-driven weight updates on the convergence behaviour of neural networks trained with equilibrium propagation (EqProp). Six memristor models were characterised by their voltage-current hysteresis and integrated into the EBANA framework for evaluation on two benchmark classification tasks. EqProp can achieve robust convergence under nonlinear weight updates, provided that memristors exhibit a sufficiently wide resistance range of at least an order of magnitude.
- Abstract(参考訳): Memristorベースのインメモリコンピューティングは、完全に並列化可能でエネルギー効率の良いベクトル行列乗算を可能にすることで、フォン・ノイマンのボトルネックとメモリ壁の制約を克服する、有望なパラダイムとして登場した。
平衡伝播(EqProp)を訓練したニューラルネットワークの収束挙動に及ぼす非線形メムリスタ駆動の重み更新の影響について検討した。
6つのmemristorモデルは電圧電流ヒステリシスによって特徴づけられ、2つのベンチマーク分類タスクを評価するためにEBANAフレームワークに統合された。
EqPropは、メムリスタが少なくとも1桁の広い抵抗範囲を示すことを条件として、非線形重み更新の下で堅牢な収束を達成することができる。
関連論文リスト
- Tensor Network Framework for Forecasting Nonlinear and Chaotic Dynamics [1.790605517028706]
非線形およびカオス力学を予測するためのテンソルネットワークモデル(TNM)を提案する。
我々は,TNMが短時間の軌道を正確に再構成し,アトラクタ形状を忠実に捉えていることを示す。
論文 参考訳(メタデータ) (2025-11-12T11:49:38Z) - Robust Iterative Learning Hidden Quantum Markov Models [0.7493761475572844]
隠れ量子マルコフモデル(HQMM)は古典的な隠れマルコフモデルを量子領域に拡張する。
既存のHQMM学習アルゴリズムは、データ破損に敏感であり、敵の摂動下で堅牢性を確保するメカニズムが欠如している。
本稿では,制御された観測系列を逆向きに破損させることにより,ロバスト性解析を形式化するHQMMを提案する。
論文 参考訳(メタデータ) (2025-10-27T11:48:44Z) - The Curious Case of In-Training Compression of State Space Models [49.819321766705514]
ステートスペースモデル(SSM)は、並列化可能なトレーニングと高速推論の両方を提供する。
鍵となる設計上の課題は、表現力の最大化と計算負荷の制限の間の適切なバランスを打つことだ。
我々のアプローチである textscCompreSSM はリニアリカレントユニットのような線形時間不変SSMに適用されるが、選択モデルにも拡張可能である。
論文 参考訳(メタデータ) (2025-10-03T09:02:33Z) - Sequential-Parallel Duality in Prefix Scannable Models [68.39855814099997]
近年では Gated Linear Attention (GLA) や Mamba など様々なモデルが開発されている。
ニアコンスタント時間並列評価と線形時間、定数空間シーケンシャル推論をサポートするニューラルネットワークモデルの全クラスを特徴付けることができるだろうか?
論文 参考訳(メタデータ) (2025-06-12T17:32:02Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - A comparative study of different machine learning methods for
dissipative quantum dynamics [0.0]
教師付き機械学習アルゴリズムは、散逸性量子系の長期集団動態を精度よく効率的に予測できることを示す。
調和浴に線形に結合した2レベル量子系の長期ダイナミクスを予測する能力について,22のMLモデルをベンチメイドした。
論文 参考訳(メタデータ) (2022-07-06T03:37:24Z) - MemSE: Fast MSE Prediction for Noisy Memristor-Based DNN Accelerators [5.553959304125023]
我々は,行列ベクトル乗算(MVM)を計算するためにmemristorを用いたDNNの平均二乗誤差を理論的に解析する。
DNNモデルのサイズを小さくする必要性から量子化ノイズと、中間値のプログラミングにおける可変性から生じるプログラミングノイズの両方を考慮に入れている。
提案手法はモンテカルロシミュレーションよりも約2桁高速であり, 与えられた電力制約に対して最小限の誤差を達成するために, 実装パラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-03T18:10:43Z) - Neural Stochastic Contraction Metrics for Learning-based Control and
Estimation [13.751135823626493]
NSCMフレームワークにより、自律エージェントは最適な安定制御と推定ポリシーをリアルタイムで近似することができる。
これは、状態依存リカティ方程式、反復LQR、EKF、神経収縮など、既存の非線形制御と推定技術より優れている。
論文 参考訳(メタデータ) (2020-11-06T03:04:42Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。