論文の概要: From Kinetic Theory to AI: a Rediscovery of High-Dimensional Divergences and Their Properties
- arxiv url: http://arxiv.org/abs/2507.11387v1
- Date: Tue, 15 Jul 2025 14:56:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.163156
- Title: From Kinetic Theory to AI: a Rediscovery of High-Dimensional Divergences and Their Properties
- Title(参考訳): 運動理論からAIへ:高次元多様性の再検討とその特性
- Authors: Gennaro Auricchio, Giovanni Brigati, Paolo Giudici, Giuseppe Toscani,
- Abstract要約: KL(Kulback-Leibler)の発散は、もともと確率分布間の相対エントロピーの尺度として運動論で導入された。
本稿では, 運動理論に根ざした分散度尺度の比較検討を行い, 理論的基礎を強調し, 機械学習と人工知能への応用の可能性を探る。
- 参考スコア(独自算出の注目度): 1.4999444543328293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Selecting an appropriate divergence measure is a critical aspect of machine learning, as it directly impacts model performance. Among the most widely used, we find the Kullback-Leibler (KL) divergence, originally introduced in kinetic theory as a measure of relative entropy between probability distributions. Just as in machine learning, the ability to quantify the proximity of probability distributions plays a central role in kinetic theory. In this paper, we present a comparative review of divergence measures rooted in kinetic theory, highlighting their theoretical foundations and exploring their potential applications in machine learning and artificial intelligence.
- Abstract(参考訳): 適切な分散尺度を選択することは、モデルのパフォーマンスに直接影響するため、機械学習の重要な側面である。
最も広く使われているうち、KL(Kulback-Leibler)の発散は、もともと確率分布間の相対エントロピーの尺度として運動論で導入されたものである。
機械学習と同様に、確率分布の近さを定量化する能力は、運動論において中心的な役割を果たす。
本稿では,運動理論に根ざした分散度尺度の比較検討を行い,その理論的基礎を強調し,機械学習や人工知能への応用の可能性を探る。
関連論文リスト
- Jarzynski Reweighting and Sampling Dynamics for Training Energy-Based Models: Theoretical Analysis of Different Transition Kernels [0.0]
エネルギーベースモデル(EBM)は、生成モデリングのための柔軟なフレームワークを提供する。
対照的な発散やスコアマッチングといった従来の手法は、正確な学習を妨げるバイアスを導入している。
本稿では,非平衡統計力学の手法であるジャジンスキー再重み付けの理論的解析とそのEBM訓練への応用について述べる。
論文 参考訳(メタデータ) (2025-06-09T15:08:01Z) - Models of Heavy-Tailed Mechanistic Universality [62.107333654304014]
トレーニングニューラルネットワークにおける重み付け行動を引き起こす属性を探索するために,ランダム行列モデルのファミリーを提案する。
このモデルの下では、3つの独立した因子の組み合わせによって、尾翼の電力法則によるスペクトル密度が生じる。
ニューラルネットワークトレーニングの5段階以上において、ニューラルネットワークのスケーリング法則、軌道、および5段階以上の位相を含む重尾の出現に対する我々のモデルの影響について論じる。
論文 参考訳(メタデータ) (2025-06-04T00:55:01Z) - Review and Prospect of Algebraic Research in Equivalent Framework between Statistical Mechanics and Machine Learning Theory [0.0]
作用素代数のような統計力学における代数的アプローチは、相転移現象を数学的に解析することができることはよく知られている。
この論文は、統計力学と場の量子論の両方において代数研究の先駆者であるアラキ・フジヒロ教授の記憶に捧げられている。
論文 参考訳(メタデータ) (2024-05-31T11:04:13Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - Machine Learning of the Prime Distribution [49.84018914962972]
素数の可学習性に関するヤン・フイ・ヘの実験的な観察を説明する理論的論証を提供する。
我々はまた、ErdHos-Kac法が現在の機械学習技術によって発見される可能性は極めて低いと仮定している。
論文 参考訳(メタデータ) (2024-03-19T09:47:54Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - A theory of learning with constrained weight-distribution [17.492950552276067]
構造情報を制約として組み込んだニューラルネットワークにおける学習の統計力学的理論を開発する。
我々は,確率分布のワッサーシュタイン空間における測地流として,我々のアルゴリズムのトレーニングを解釈できることを示した。
我々の理論とアルゴリズムは、ウェイトに関する事前知識を学習に取り入れる新しい戦略を提供し、ニューラルネットワークの構造と機能の間の強力な関係を明らかにする。
論文 参考訳(メタデータ) (2022-06-14T00:43:34Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Machine Learning S-Wave Scattering Phase Shifts Bypassing the Radial
Schr\"odinger Equation [77.34726150561087]
本稿では, 畳み込みニューラルネットワークを用いて, 正確な散乱s波位相シフトを得られる機械学習モデルの実証を行う。
我々は、ハミルトニアンが物理的に動機づけられた記述子の構築において、いかにして指導原理として機能するかについて議論する。
論文 参考訳(メタデータ) (2021-06-25T17:25:38Z) - Quantum field-theoretic machine learning [0.0]
我々は、$phi4$スカラー場理論をマルコフ確率場の数学的に厳密な枠組み内の機械学習アルゴリズムとして再考する。
ニューラルネットワークはまた、従来のニューラルネットワークの一般化と見なせる$phi4$理論から派生している。
論文 参考訳(メタデータ) (2021-02-18T16:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。