論文の概要: Function Approximation for High-Energy Physics: Comparing Machine
Learning and Interpolation Methods
- arxiv url: http://arxiv.org/abs/2111.14788v1
- Date: Mon, 29 Nov 2021 18:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:57:12.253469
- Title: Function Approximation for High-Energy Physics: Comparing Machine
Learning and Interpolation Methods
- Title(参考訳): 高エネルギー物理のための関数近似:機械学習と補間法の比較
- Authors: Ibrahim Chahrour and James D. Wells
- Abstract要約: 高エネルギー物理学では、プロセスの散乱断面積の正確な計算には、計算集約積分の評価が必要である。
機械学習の様々な手法がこの問題に対処するために使われてきたが、あるメソッドを別のメソッドで使うという動機が欠如していることが多い。
4、3つの機械学習技術について検討し、3つの玩具機能の性能を比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need to approximate functions is ubiquitous in science, either due to
empirical constraints or high computational cost of accessing the function. In
high-energy physics, the precise computation of the scattering cross-section of
a process requires the evaluation of computationally intensive integrals. A
wide variety of methods in machine learning have been used to tackle this
problem, but often the motivation of using one method over another is lacking.
Comparing these methods is typically highly dependent on the problem at hand,
so we specify to the case where we can evaluate the function a large number of
times, after which quick and accurate evaluation can take place. We consider
four interpolation and three machine learning techniques and compare their
performance on three toy functions, the four-point scalar Passarino-Veltman
$D_0$ function, and the two-loop self-energy master integral $M$. We find that
in low dimensions ($d = 3$), traditional interpolation techniques like the
Radial Basis Function perform very well, but in higher dimensions ($d=5, 6, 9$)
we find that multi-layer perceptrons (a.k.a neural networks) do not suffer as
much from the curse of dimensionality and provide the fastest and most accurate
predictions.
- Abstract(参考訳): 関数を近似する必要性は、経験的制約または関数にアクセスする計算コストが高いため、科学においてユビキタスである。
高エネルギー物理学では、プロセスの散乱断面積の正確な計算には計算集約積分の評価が必要である。
機械学習の様々な手法がこの問題に対処するために使われてきたが、ある手法を別の手法で使う動機が欠けていることが多い。
これらの手法の比較は一般に手元にある問題に大きく依存しているため,関数を複数回評価し,その後,迅速かつ正確な評価を行うことが可能である。
4つの補間と3つの機械学習技術を検討し、3つのおもちゃ関数、すなわち4点スカラーパスアリノ・ヴェルトマン$d_0$関数と2ループの自己エネルギーマスター積分$m$と比較する。
低次元(d = 3$)では、ラジアル基底関数のような伝統的な補間技術は非常によく機能するが、高次元(d=5, 6, 9$)では、多層パーセプトロン(すなわちニューラルネットワーク)は次元の呪いにあまり苦しめられず、最も速く、最も正確な予測を提供する。
関連論文リスト
- Approximation Theory, Computing, and Deep Learning on the Wasserstein Space [0.5735035463793009]
有限標本からの無限次元空間における近似関数の挑戦に対処する。
我々の焦点はワッサーシュタイン距離関数であり、これは関連する例である。
機能近似を定義するために,機械学習に基づく3つのアプローチを採用する。
論文 参考訳(メタデータ) (2023-10-30T13:59:47Z) - Solving multiscale elliptic problems by sparse radial basis function
neural networks [3.5297361401370044]
楕円偏微分方程式 (PDE) を多スケール係数で解くために, スパースラジアル基底関数ニューラルネットワーク法を提案する。
深層混合残差法に着想を得て,2次問題を1次システムに書き換え,複数の放射基底関数ニューラルネットワーク(RBFNN)を用いて未知の関数を近似する。
提案手法の精度と有効性は,1次元から3次元までのスケール分離,不連続性,複数スケールのマルチスケール問題の集合を通して実証される。
論文 参考訳(メタデータ) (2023-09-01T15:11:34Z) - Integrated Variational Fourier Features for Fast Spatial Modelling with Gaussian Processes [7.5991638205413325]
トレーニングポイントが$N$の場合、正確な推論は$O(N3)$コストを持ち、$M ll N$機能により、アートスパース変分メソッドの状態は$O(NM2)$コストを持つ。
近年、空間モデリングのような低次元タスクにおいて優れた性能を持つ$O(M3)$コストを約束する手法が提案されているが、最もよく使われるカーネルを除いて、非常に限られた種類のカーネルでしか動作しない。
本稿では,Fourier機能の統合について提案する。これは,これらのパフォーマンスのメリットを,より広範な定常的コのクラスに拡張するものである。
論文 参考訳(メタデータ) (2023-08-27T15:44:28Z) - Comparison of Neural FEM and Neural Operator Methods for applications in
Solid Mechanics [0.0]
現在の研究は、数値実験によるエラストスタティックスにおける2つのクラス、Neural FEMとNeural Operator Methodsを調査している。
2つのクラスの主な違いは、計算の労力と精度である。
論文 参考訳(メタデータ) (2023-07-04T06:16:43Z) - Neural Operator: Is data all you need to model the world? An insight
into the impact of Physics Informed Machine Learning [13.050410285352605]
我々は、データ駆動アプローチが、工学や物理学の問題を解決する従来の手法を補完する方法についての洞察を提供する。
我々は,PDE演算子学習の解演算子を学習するための,新しい,高速な機械学習に基づくアプローチを強調した。
論文 参考訳(メタデータ) (2023-01-30T23:29:33Z) - Batch-efficient EigenDecomposition for Small and Medium Matrices [65.67315418971688]
EigenDecomposition (ED)は多くのコンピュータビジョンアルゴリズムとアプリケーションの中心にある。
本稿では,コンピュータビジョンの応用シナリオに特化したQRベースのED手法を提案する。
論文 参考訳(メタデータ) (2022-07-09T09:14:12Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。