論文の概要: The Price equation reveals a universal force-metric-bias law of algorithmic learning and natural selection
- arxiv url: http://arxiv.org/abs/2507.18549v2
- Date: Tue, 05 Aug 2025 20:39:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 15:43:09.396461
- Title: The Price equation reveals a universal force-metric-bias law of algorithmic learning and natural selection
- Title(参考訳): プライス方程式はアルゴリズム学習と自然選択の普遍的な力計量バイアス則を明らかにする
- Authors: Steven A. Frank,
- Abstract要約: プライス方程式による変化の単純な記法分割は、普遍力計量バイアス(FMB)法則を明らかにすることを示す。
FMB法は、規律を越えて学習アルゴリズムを理解し、比較し、設計するための原則化された基盤を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diverse learning algorithms, optimization methods, and natural selection share a common mathematical structure, despite their apparent differences. Here I show that a simple notational partitioning of change by the Price equation reveals a universal force-metric-bias (FMB) law: $\Delta\mathbf{\theta} = \mathbf{M}\,\mathbf{f} + \mathbf{b} + \mathbf{\xi}$. The force $\mathbf{f}$ drives improvement in parameters, $\Delta\mathbf{\theta}$, in proportion to the slope of performance with respect to the parameters. The metric $\mathbf{M}$ rescales movement by inverse curvature. The bias $\mathbf{b}$ adds momentum or changes in the frame of reference. The noise $\mathbf{\xi}$ enables exploration. This framework unifies natural selection, Bayesian updating, Newton's method, stochastic gradient descent, stochastic Langevin dynamics, Adam optimization, and most other algorithms as special cases of the same underlying process. The Price equation also reveals why Fisher information, Kullback-Leibler divergence, and d'Alembert's principle arise naturally in learning dynamics. By exposing this common structure, the FMB law provides a principled foundation for understanding, comparing, and designing learning algorithms across disciplines.
- Abstract(参考訳): 様々な学習アルゴリズム、最適化方法、自然選択は、明らかな違いにもかかわらず共通の数学的構造を共有している。
ここでは、プライス方程式による変化の単純な記法分割が、普遍的な力計量バイアス(FMB)法則を明らかにすることを示す: $\Delta\mathbf{\theta} = \mathbf{M}\,\mathbf{f} + \mathbf{b} + \mathbf{\xi}$。
力$\mathbf{f}$はパラメータの改善を駆動し、$\Delta\mathbf{\theta}$はパラメータに対するパフォーマンスの傾きに比例する。
計量 $\mathbf{M}$ は逆曲率による運動を再スケールする。
バイアス $\mathbf{b}$ は参照のフレームに運動量や変化を加える。
ノイズ$\mathbf{\xi}$は探索を可能にする。
このフレームワークは自然選択、ベイズ更新、ニュートンの方法、確率勾配降下、確率ランゲヴィンダイナミクス、アダム最適化、その他のアルゴリズムを、同じ基礎プロセスの特別な場合として統合する。
プライス方程式はまた、フィッシャー情報、クルバック・リーブラーの発散、ダレムベルトの原理が自然に学習力学に現れる理由を明らかにしている。
この共通構造を明らかにすることで、FMB法は、学習アルゴリズムを規律を越えて理解し、比較し、設計するための原則化された基盤を提供する。
関連論文リスト
- Nonconvex Stochastic Optimization under Heavy-Tailed Noises: Optimal Convergence without Gradient Clipping [21.865728815935665]
重み付き雑音下での最初の収束を提供するが、切断はしない。
また、テールインデックス$mathfrakp$が事前に不明な場合には、最初の$mathcalO(Tfrac1-mathfrakp3mathfrakp-2)$収束率も設定する。
論文 参考訳(メタデータ) (2024-12-27T08:46:46Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Accurate and Scalable Stochastic Gaussian Process Regression via Learnable Coreset-based Variational Inference [8.077736581030264]
本稿では,ガウス過程(mathcalGP$)回帰に対する新しい帰納的変分推定法を提案する。
従来の推論用自由形式変動型族とは異なり、コアセットベースの変動型 $mathcalGP$ (CVGP) は $mathcalGP$ pre と (重み付き) データの確率で定義される。
論文 参考訳(メタデータ) (2023-11-02T17:22:22Z) - Statistical Learning under Heterogeneous Distribution Shift [71.8393170225794]
ground-truth predictor is additive $mathbbE[mathbfz mid mathbfx,mathbfy] = f_star(mathbfx) +g_star(mathbfy)$.
論文 参考訳(メタデータ) (2023-02-27T16:34:21Z) - Randomized Block-Coordinate Optimistic Gradient Algorithms for Root-Finding Problems [11.15373699918747]
大規模設定における非線形方程式の解を近似する2つの新しいアルゴリズムを開発した。
本稿では,機械学習,統計的学習,ネットワーク最適化などにおける顕著な応用を網羅した大規模有限サム包含のクラスに適用する。
論文 参考訳(メタデータ) (2023-01-08T21:46:27Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Computationally Efficient Horizon-Free Reinforcement Learning for Linear
Mixture MDPs [111.75736569611159]
線形混合MDPのための計算効率のよい初めての地平線フリーアルゴリズムを提案する。
我々のアルゴリズムは、未知の遷移力学に対する重み付き最小二乗推定器に適応する。
これにより、$sigma_k2$'sが知られているときに、この設定で最もよく知られたアルゴリズムも改善される。
論文 参考訳(メタデータ) (2022-05-23T17:59:18Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。