論文の概要: Benchmarking Simulation-Based Inference
- arxiv url: http://arxiv.org/abs/2101.04653v1
- Date: Tue, 12 Jan 2021 18:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:52:12.300203
- Title: Benchmarking Simulation-Based Inference
- Title(参考訳): ベンチマークシミュレーションに基づく推論
- Authors: Jan-Matthis Lueckmann, Jan Boelts, David S. Greenberg, Pedro J.
Gon\c{c}alves, Jakob H. Macke
- Abstract要約: 確率的モデリングの最近の進歩は、確率の数値的評価を必要としないシミュレーションに基づく推論アルゴリズムを多数もたらした。
推論タスクと適切なパフォーマンス指標を備えたベンチマークを,アルゴリズムの初期選択とともに提供する。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
- 参考スコア(独自算出の注目度): 5.3898004059026325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in probabilistic modelling have led to a large number of
simulation-based inference algorithms which do not require numerical evaluation
of likelihoods. However, a public benchmark with appropriate performance
metrics for such 'likelihood-free' algorithms has been lacking. This has made
it difficult to compare algorithms and identify their strengths and weaknesses.
We set out to fill this gap: We provide a benchmark with inference tasks and
suitable performance metrics, with an initial selection of algorithms including
recent approaches employing neural networks and classical Approximate Bayesian
Computation methods. We found that the choice of performance metric is
critical, that even state-of-the-art algorithms have substantial room for
improvement, and that sequential estimation improves sample efficiency. Neural
network-based approaches generally exhibit better performance, but there is no
uniformly best algorithm. We provide practical advice and highlight the
potential of the benchmark to diagnose problems and improve algorithms. The
results can be explored interactively on a companion website. All code is open
source, making it possible to contribute further benchmark tasks and inference
algorithms.
- Abstract(参考訳): 確率的モデリングの最近の進歩は、確率の数値的評価を必要としない多くのシミュレーションに基づく推論アルゴリズムを生み出した。
しかし、このような'likelihood-free'アルゴリズムに適切なパフォーマンス指標を持つ公開ベンチマークは欠落している。
これにより、アルゴリズムの比較と、その強みと弱みの特定が難しくなった。
私たちは、推論タスクと適切なパフォーマンスメトリクスを備えたベンチマークを提供し、ニューラルネットワークと古典的な近似ベイズ計算手法を用いた最近のアプローチを含むアルゴリズムを初期選択します。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
ニューラルネットワークベースのアプローチは一般的にパフォーマンスが向上するが、一様に最適なアルゴリズムはない。
我々は,問題を診断し,アルゴリズムを改善するためのベンチマークの可能性を強調し,実践的なアドバイスを提供する。
結果はコンパニオンwebサイトでインタラクティブに探すことができる。
すべてのコードはオープンソースであり、さらなるベンチマークタスクと推論アルゴリズムに貢献することができる。
関連論文リスト
- Large Language Model-Enhanced Algorithm Selection: Towards Comprehensive
Algorithm Representation [29.37257570009215]
本稿では,アルゴリズム選択プロセスにアルゴリズム表現を統合するアプローチを提案する。
特に,提案モデルでは,問題とアルゴリズムの両方の表現を抽出するために,異なるモジュールを用いる。
アルゴリズムと問題の両方に対する埋め込みベクトルの抽出に続いて、最も適切なアルゴリズムは一致する次数の計算によって決定される。
論文 参考訳(メタデータ) (2023-11-22T06:23:18Z) - Equitable and Fair Performance Evaluation of Whale Optimization
Algorithm [4.0814527055582746]
すべてのアルゴリズムは、徹底的に、幾分、知的に評価されることが不可欠である。
最適化アルゴリズムの有効性を等しく、公平に評価することは、様々な理由から簡単なプロセスではない。
論文 参考訳(メタデータ) (2023-09-04T06:32:02Z) - Neural Algorithmic Reasoning Without Intermediate Supervision [21.852775399735005]
我々は、中間的監督に訴えることなく、入出力ペアからのみニューラルネットワーク推論を学ぶことに集中する。
我々は、アルゴリズムの軌跡にアクセスできることなく、モデルの中間計算を正規化できる自己教師対象を構築する。
CLRSic Algorithmic Reasoning Benchmarkのタスクにおいて,提案手法はトラジェクトリを教師する手法と競合することを示す。
論文 参考訳(メタデータ) (2023-06-23T09:57:44Z) - Efficient Convex Algorithms for Universal Kernel Learning [50.877957471649395]
カーネルの理想的な集合: 線形パラメータ化(トラクタビリティ)を認める; すべてのカーネルの集合に密着する(正確性)。
従来のカーネル最適化アルゴリズムは分類に限られており、計算に複雑なセミデフィニティプログラミング(SDP)アルゴリズムに依存していた。
本稿では,従来のSDP手法と比較して計算量を大幅に削減するSVD-QCQPQPアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-15T04:57:37Z) - Dual Algorithmic Reasoning [9.701208207491879]
本稿では,基礎となるアルゴリズム問題の双対性を利用してアルゴリズムを学習することを提案する。
アルゴリズム学習における最適化問題の2つの定義を同時に学習することで、より良い学習が可能になることを実証する。
次に、難易度の高い脳血管分類タスクにデプロイすることで、二元アルゴリズム推論の現実的な実用性を検証する。
論文 参考訳(メタデータ) (2023-02-09T08:46:23Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Boosting Algorithms for Estimating Optimal Individualized Treatment
Rules [4.898659895355356]
最適な個別化処理規則を推定するための非パラメトリックアルゴリズムを提案する。
提案アルゴリズムは機械学習文学において最も強力なアルゴリズムの1つであるXGBoostアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-01-31T22:26:38Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。