論文の概要: A new Uncertainty Principle in Machine Learning
- arxiv url: http://arxiv.org/abs/2603.06634v1
- Date: Tue, 24 Feb 2026 12:48:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.459678
- Title: A new Uncertainty Principle in Machine Learning
- Title(参考訳): 機械学習における新しい不確実性原理
- Authors: V. Dolotin, A. Morozov,
- Abstract要約: 機械学習の文脈における多くの科学的問題は、適切な変数の答えの探索に還元することができる。
この単純なアイデアの使用を妨げるのは、HeavisideとSigmoidの拡張の致命的な退化である。
この問題は特異な不確実性原理として定式化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many scientific problems in the context of machine learning can be reduced to the search of polynomial answers in appropriate variables. The Hevisidization of arbitrary polynomial is actually provided by one-and-the same two-layer expression. What prevents the use of this simple idea is the fatal degeneracy of the Heaviside and sigmoid expansions, which traps the steepest-descent evolution at the bottom of canyons, close to the starting point, but far from the desired true minimum. This problem is unavoidable and can be formulated as a peculiar uncertainty principle -- the sharper the minimum, the smoother the canyons. It is a direct analogue of the usual one, which is the pertinent property of the more familiar Fourier expansion. Standard machine learning software fights with this problem empirically, for example, by testing evolutions, originated at randomly distributed starting points and then selecting the best one. Surprisingly or not, phenomena and problems, encountered in ML application to science are pure scientific and belong to physics, not to computer science. On the other hand, they sound slightly different and shed new light on the well-known phenomena -- for example, extend the uncertainty principle from Fourier and, later, wavelet analysis to a new peculiar class of nearly singular sigmoid functions.
- Abstract(参考訳): 機械学習の文脈における多くの科学的問題は、適切な変数の多項式解の探索に還元することができる。
任意の多項式のHevisidizationは、実際は同じ2層式によって提供される。
この単純なアイデアの使用を妨げるのは、ヘビサイドとシグモイドの展開の致命的な退化であり、これは峡谷の底部で最も急勾配の進化を妨げるが、その出発点に近いが、望まれる真の最小値から遠く離れている。
この問題は避けられないものであり、特異な不確実性原理として定式化することができる。
これは通常のものと直接類似しており、より親しみやすいフーリエ拡大の関連する性質である。
標準的な機械学習ソフトウェアは、例えば進化をテストすることによって、ランダムに分散された開始点から始まり、最適な点を選択するなど、この問題と経験的に戦う。
驚くべきことに、MLの科学への応用で遭遇した現象や問題は純粋に科学であり、コンピュータ科学ではなく物理学に属する。
一方、それらはわずかに異なる音で、よく知られた現象に新しい光を放ち、例えばフーリエから不確実性原理を拡張し、後にウェーブレット解析をほぼ特異なシグモイド函数の新しい特異類へと拡張した。
関連論文リスト
- Learning with Exact Invariances in Polynomial Time [43.81087760363805]
本稿では,カーネル回帰を用いて,正確な不変性(あるいは対称性)を学習するための統計的・計算的トレードオフについて検討する。
提案手法は,元のカーネル回帰問題と同じ過大な集団リスクを実現する。
論文 参考訳(メタデータ) (2025-02-27T04:49:52Z) - Machine learning detects terminal singularities [49.1574468325115]
Q-ファノ多様体は、Q-階数終端特異点を持つ正の曲線形状である。
その重要性にもかかわらず、Q-Fanoの分類は未だ不明である。
本稿では,この分類を理解するために機械学習を用いることを実証する。
論文 参考訳(メタデータ) (2023-10-31T13:51:24Z) - Information Bounds on phase transitions in disordered systems [0.0]
乱数性のあるモデルにおける位相遷移、例えば乱数系における局在化、測定を伴うランダム量子回路について検討する。
我々はこの手法をベンチマークし、よく知られたハリス基準を再定義し、非相互作用粒子のアンダーソン局在化遷移における臨界指数を限定する。
実空間では、我々の臨界指数境界は最近のコンセンサスと一致するが、やや驚くべきことに、有限サイズの系に対するフォック空間の局所化に関する数値的な結果は、我々の境界に従わない。
論文 参考訳(メタデータ) (2023-08-29T18:00:07Z) - Evolving Scientific Discovery by Unifying Data and Background Knowledge with AI Hilbert [11.56572994087136]
ケプラーの第3惑星運動法則を含む有名な科学法則は、公理やデータから原理的に導出できることを示す。
2変数変数と論理的制約を用いて複雑性をモデル化し、混合整数線形あるいは半定値最適化による最適化問題を解き、科学的発見の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-18T11:19:41Z) - The Principle of Uncertain Maximum Entropy [0.0]
最大エントロピーの原理(英: Principle of Maximum Entropy)は、与えられた部分情報が未知の分布を推定する厳密な手法である。
我々は、この要求を、新しいより一般的な原則を導出するためのフレームワークとして、メモリレス通信チャネルを用いて緩和する。
本稿では, 未知の分布のエントロピーに上限を与え, 与えられた通信チャネルの使用により失われる情報量について述べる。
論文 参考訳(メタデータ) (2023-05-17T00:45:41Z) - Computing non-equilibrium trajectories by a deep learning approach [0.0]
複雑な系における稀かつ極端な事象の発生を予測することは、非平衡物理学においてよく知られた問題である。
本稿では,ニューラルネットワークの代わりに幾何学的作用を最小化する手法を提案する。
これは、古典的なgMAMアプローチの自然で単純な機械学習の定式化に依存している。
論文 参考訳(メタデータ) (2022-10-08T14:53:23Z) - A Random Matrix Perspective on Random Tensors [40.89521598604993]
与えられたランダムテンソルの収縮から生じるランダム行列のスペクトルについて検討する。
本手法は,ML問題の局所的な最大値の未知な特徴を与える。
我々のアプローチは万能であり、非対称、非ガウス的、高階的など他のモデルにも拡張できる。
論文 参考訳(メタデータ) (2021-08-02T10:42:22Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Noisy Gradient Descent Converges to Flat Minima for Nonconvex Matrix
Factorization [36.182992409810446]
本稿では,非最適化問題における雑音の重要性について考察する。
勾配勾配勾配は、入射雑音によって決定される大域バイアスに収束する任意の大域的な形式に収束できることを示す。
論文 参考訳(メタデータ) (2021-02-24T17:50:17Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。