論文の概要: A machine learning approach for efficient multi-dimensional integration
- arxiv url: http://arxiv.org/abs/2009.06697v1
- Date: Mon, 14 Sep 2020 19:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 13:19:14.609906
- Title: A machine learning approach for efficient multi-dimensional integration
- Title(参考訳): 効率的な多次元統合のための機械学習アプローチ
- Authors: Boram Yoon
- Abstract要約: 機械学習(ML)技術を用いた新しい多次元統合アルゴリズムを提案する。
これらの結果から,新しいアルゴリズムは,ほとんどのテストケースにおいて,アルゴリズムの精度を桁違いに小さくした積分推定値を提供することがわかった。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel multi-dimensional integration algorithm using a machine
learning (ML) technique. After training a ML regression model to mimic a target
integrand, the regression model is used to evaluate an approximation of the
integral. Then, the difference between the approximation and the true answer is
calculated to correct the bias in the approximation of the integral induced by
a ML prediction error. Because of the bias correction, the final estimate of
the integral is unbiased and has a statistically correct error estimation. The
performance of the proposed algorithm is demonstrated on six different types of
integrands at various dimensions and integrand difficulties. The results show
that, for the same total number of integrand evaluations, the new algorithm
provides integral estimates with more than an order of magnitude smaller
uncertainties than those of the VEGAS algorithm in most of the test cases.
- Abstract(参考訳): 機械学習(ML)技術を用いた新しい多次元統合アルゴリズムを提案する。
ターゲット積分を模倣するためにml回帰モデルをトレーニングした後、回帰モデルは積分の近似を評価するために使用される。
そして、近似と真解との差を算出し、ML予測誤差によって誘導される積分の近似のバイアスを補正する。
バイアス補正のため、積分の最終的な推定は偏りがなく、統計的に正しい誤差推定を持つ。
提案アルゴリズムの性能は,様々な次元における6種類の積分および積分の難易度について実証した。
その結果, インテグレート評価の総数に対して, 新アルゴリズムは, テストケースのほとんどの場合において, VEGASアルゴリズムよりも精度が桁違いに小さい積分推定値を提供することがわかった。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - A general error analysis for randomized low-rank approximation with application to data assimilation [42.57210316104905]
中心行列および非標準行列に対するフロベニウスノルムにおける低ランク近似誤差の解析のための枠組みを提案する。
最小限の仮定の下では、期待と確率の正確な境界を導出する。
私たちの境界には、プロパティを導出し、実践的な選択を動機付けるための明確な解釈があります。
論文 参考訳(メタデータ) (2024-05-08T04:51:56Z) - Convergence of Expectation-Maximization Algorithm with Mixed-Integer Optimization [5.319361976450982]
本稿では,特定の種類のEMアルゴリズムの収束を保証する一連の条件を紹介する。
本研究では,混合整数非線形最適化問題の解法として,反復アルゴリズムの新しい解析手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T11:42:46Z) - Improving Accuracy Without Losing Interpretability: A ML Approach for
Time Series Forecasting [4.025941501724274]
時系列予測では、分解に基づくアルゴリズムが集約データを意味のあるコンポーネントに分解する。
近年のアルゴリズムは、予測精度を向上させるために、機械学習(以下、ML)手法と分解を組み合わせていることが多い。
本稿では,分解とMLを組み合わせたハイブリッドアルゴリズムW-Rを提案する。
論文 参考訳(メタデータ) (2022-12-13T14:51:10Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Manifold Gaussian Variational Bayes on the Precision Matrix [70.44024861252554]
複雑なモデルにおける変分推論(VI)の最適化アルゴリズムを提案する。
本研究では,変分行列上の正定値制約を満たすガウス変分推論の効率的なアルゴリズムを開発した。
MGVBPはブラックボックスの性質のため、複雑なモデルにおけるVIのための準備が整ったソリューションである。
論文 参考訳(メタデータ) (2022-10-26T10:12:31Z) - Splitting numerical integration for matrix completion [0.0]
低階行列近似のための新しいアルゴリズムを提案する。
このアルゴリズムは最適化の枠組みにおける古典的な勾配勾配の適応である。
実験結果から,本手法は大規模問題に対して優れたスケーラビリティを有することが示された。
論文 参考訳(メタデータ) (2022-02-14T04:45:20Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Efficient Consensus Model based on Proximal Gradient Method applied to
Convolutional Sparse Problems [2.335152769484957]
我々は、勾配近似(PG)アプローチに基づく効率的なコンセンサスアルゴリズムの理論解析を導出し、詳述する。
提案アルゴリズムは、異常検出タスクに対する別の特別な畳み込み問題にも適用できる。
論文 参考訳(メタデータ) (2020-11-19T20:52:48Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。