論文の概要: Learning at the Speed of Physics: Equilibrium Propagation on Oscillator Ising Machines
- arxiv url: http://arxiv.org/abs/2510.12934v1
- Date: Tue, 14 Oct 2025 19:15:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.392979
- Title: Learning at the Speed of Physics: Equilibrium Propagation on Oscillator Ising Machines
- Title(参考訳): 物理の速度で学ぶ:オシレータイジングマシンの平衡伝播
- Authors: Alex Gower,
- Abstract要約: 自然にエネルギー降下を行う物理システムは、機械学習への直接的な経路を提供する。
我々は,OIMがグローバルなバックプロパゲーションを伴わずに競争精度を達成することを示す。
これらの結果は、OIMを神経形学習のための高速でエネルギー効率の高い基質として確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical systems that naturally perform energy descent offer a direct route to accelerating machine learning. Oscillator Ising Machines (OIMs) exemplify this idea: their GHz-frequency dynamics mirror both the optimization of energy-based models (EBMs) and gradient descent on loss landscapes, while intrinsic noise corresponds to Langevin dynamics - supporting sampling as well as optimization. Equilibrium Propagation (EP) unifies these processes into descent on a single total energy landscape, enabling local learning rules without global backpropagation. We show that EP on OIMs achieves competitive accuracy ($\sim 97.2 \pm 0.1 \%$ on MNIST, $\sim 88.0 \pm 0.1 \%$ on Fashion-MNIST), while maintaining robustness under realistic hardware constraints such as parameter quantization and phase noise. These results establish OIMs as a fast, energy-efficient substrate for neuromorphic learning, and suggest that EBMs - often bottlenecked by conventional processors - may find practical realization on physical hardware whose dynamics directly perform their optimization.
- Abstract(参考訳): 自然にエネルギー降下を行う物理システムは、機械学習を加速する直接的な経路を提供する。
GHz周波数ダイナミクスはエネルギーベースモデル(EBM)の最適化と損失ランドスケープへの勾配勾配の両方を反映し、固有のノイズはサンプリングと最適化をサポートするランゲヴィン力学に対応している。
Equilibrium Propagation (EP)は、これらのプロセスを単一の全エネルギーランドスケープに一元化し、グローバルなバックプロパゲーションなしに局所的な学習ルールを可能にする。
パラメータ量子化や位相ノイズといった現実的なハードウェア制約の下では, EP on OIMs は競争精度(MNIST では 97.2 \pm 0.1 \%$, $\sim 88.0 \pm 0.1 \%$) を実現し, 堅牢性を維持していることを示す。
これらの結果は、OIMをニューロモルフィック学習のための高速でエネルギー効率のよい基板として確立し、ERM(しばしば従来のプロセッサがボトルネックとなる)が、動的に最適化を行う物理ハードウェア上で実践的な実現法を見出すかもしれないことを示唆している。
関連論文リスト
- Equilibrium Matching: Generative Modeling with Implicit Energy-Based Models [52.74448905289362]
EqMは、平衡力学の観点から構築された生成モデリングフレームワークである。
時間条件の速度を統一された平衡景観に置き換えることで、EqMは流れとエネルギーベースのモデルの間により緊密な橋渡しを提供する。
論文 参考訳(メタデータ) (2025-10-02T17:59:06Z) - Feedback-MPPI: Fast Sampling-Based MPC via Rollout Differentiation -- Adios low-level controllers [0.9674641730446749]
モデル予測経路積分制御は、複雑なロボット作業に適したサンプリングベースの強力なアプローチである。
本稿では,勾配型MPCの感度から得られる頑健なフィードバックゲインを紹介する。
2つのロボットプラットフォームにおける実環境実験によるシミュレーションにおけるF-MPPIの有効性を実証する。
論文 参考訳(メタデータ) (2025-06-17T07:47:33Z) - OmniFluids: Physics Pre-trained Modeling of Fluid Dynamics [25.066485418709114]
OmniFluidsは、基礎流体力学の法則を捉え、多様な下流タスクに効率的に適応する純粋物理事前学習モデルである。
本研究では,物理のみの事前学習,粗粒度演算子蒸留,小ショットファインチューニングを併用したトレーニングフレームワークを開発した。
テストによると、OmniFluidsは流れ場の予測と統計の点で最先端のAI駆動手法より優れている。
論文 参考訳(メタデータ) (2025-06-12T16:23:02Z) - A Physics-Inspired Optimizer: Velocity Regularized Adam [9.38448580878081]
深層ニューラルネットワークのトレーニングにVelocity-Regularized Adamvolution(VRAdam)を導入する。
VRAdamは、速度に基づいて学習率により高い順序のペナルティを加える。
我々は、AdamWを含む標準凸に対してVRAdamが性能を上回ることを示した。
論文 参考訳(メタデータ) (2025-05-19T14:51:40Z) - Learning to Dissipate Energy in Oscillatory State-Space Models [51.98491034847041]
状態空間モデル (SSM) はシーケンス学習のためのネットワークのクラスである。
我々は,D-LinOSSがLinOSSの手法を長距離学習タスクで一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-05-17T23:15:17Z) - Explore Activation Sparsity in Recurrent LLMs for Energy-Efficient Neuromorphic Computing [3.379854610429579]
Recurrent Large Language Models (R-LLM) は自己注意の複雑さを軽減するのに有効であることが証明されている。
ニューロモルフィックハードウェア上でのエネルギー効率を高めるために,R-LLMの活性化をスパースする,低コストでトレーニング不要なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-09T19:13:03Z) - Neural Material Adaptor for Visual Grounding of Intrinsic Dynamics [48.99021224773799]
本稿では,既存の物理法則を学習的補正と統合するニューラルネットワーク (NeuMA) を提案する。
また,粒子駆動型3次元ガウス平滑化モデルであるParticle-GSを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:43:36Z) - Overcoming systematic softening in universal machine learning interatomic potentials by fine-tuning [3.321322648845526]
機械学習原子間ポテンシャル(MLIP)は原子シミュレーションの新しいパラダイムを導入した。
近年,多種多様な資料データセットで事前学習したユニバーサルMLIP(uMLIP)が出現している。
分布外の複雑な原子環境に対する外挿性能はいまだに不明である。
論文 参考訳(メタデータ) (2024-05-11T22:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。