論文の概要: Active Learning for Computationally Efficient Distribution of Binary
Evolution Simulations
- arxiv url: http://arxiv.org/abs/2203.16683v1
- Date: Wed, 30 Mar 2022 21:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 16:11:14.453609
- Title: Active Learning for Computationally Efficient Distribution of Binary
Evolution Simulations
- Title(参考訳): 二元進化シミュレーションの計算効率分布のためのアクティブラーニング
- Authors: Kyle Akira Rocha, Jeff J. Andrews, Christopher P. L. Berry, Zoheyr
Doctor, Pablo Marchant, Vicky Kalogera, Scott Coughlin, Simone S. Bavera,
Aaron Dotter, Tassos Fragos, Konstantinos Kovlakas, Devina Misra, Zepei Xing,
Emmanouil Zapartas
- Abstract要約: 我々は,データ収集プロセスにおける機械学習を用いて,対象とするシミュレーションを適応的かつ反復的に選択する,新しい能動的学習アルゴリズムであるpsy-crisを提案する。
おもちゃの問題に対してpsy-crisを試験し、その結果のトレーニングセットが正規またはランダムにサンプリングされたグリッドよりも正確な分類と回帰のシミュレーションを少なくする必要があることを発見した。
- 参考スコア(独自算出の注目度): 0.19359975080269876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary stars undergo a variety of interactions and evolutionary phases,
critical for predicting and explaining observed properties. Binary population
synthesis with full stellar-structure and evolution simulations are
computationally expensive requiring a large number of mass-transfer sequences.
The recently developed binary population synthesis code POSYDON incorporates
grids of MESA binary star simulations which are then interpolated to model
large-scale populations of massive binaries. The traditional method of
computing a high-density rectilinear grid of simulations is not scalable for
higher-dimension grids, accounting for a range of metallicities, rotation, and
eccentricity. We present a new active learning algorithm, psy-cris, which uses
machine learning in the data-gathering process to adaptively and iteratively
select targeted simulations to run, resulting in a custom, high-performance
training set. We test psy-cris on a toy problem and find the resulting training
sets require fewer simulations for accurate classification and regression than
either regular or randomly sampled grids. We further apply psy-cris to the
target problem of building a dynamic grid of MESA simulations, and we
demonstrate that, even without fine tuning, a simulation set of only $\sim 1/4$
the size of a rectilinear grid is sufficient to achieve the same classification
accuracy. We anticipate further gains when algorithmic parameters are optimized
for the targeted application. We find that optimizing for classification only
may lead to performance losses in regression, and vice versa. Lowering the
computational cost of producing grids will enable future versions of POSYDON to
cover more input parameters while preserving interpolation accuracies.
- Abstract(参考訳): 連星は様々な相互作用と進化段階を経て、観測された性質の予測と説明に欠かせない。
完全な恒星構造と進化シミュレーションによる二進数合成は、大量の質量移動配列を必要とする計算コストが高い。
最近開発された二進数合成符号POSYDONは、MESA二進数星シミュレーションの格子を組み込んで、巨大な二進数の大規模集団をモデル化する。
従来の高密度の直線格子の計算法は、高次元の格子ではスケーラブルではなく、金属度、回転、偏心度の範囲を考慮に入れている。
我々は,データ収集プロセスにおける機械学習を用いて,対象とするシミュレーションを適応的かつ反復的に選択する,新しい能動的学習アルゴリズムであるpsy-crisを提案する。
おもちゃの問題に対してpsy-crisを試験し、結果として得られたトレーニングセットは正規またはランダムにサンプリングされたグリッドよりも正確な分類と回帰のシミュレーションを少なくする。
我々はさらに,MESAシミュレーションの動的グリッド構築の目的問題に対してpsy-crisを適用し,微調整がなくても,リチリニアグリッドのサイズが$\sim 1/4$のシミュレーションセットで同じ分類精度を実現することができることを示した。
対象のアプリケーションにアルゴリズムパラメータを最適化した場合,さらなる利益が期待できる。
分類の最適化は、回帰においてパフォーマンスの損失をもたらすだけであり、その逆である。
グリッドの計算コストを下げることで、ポシドンの将来のバージョンは補間精度を維持しつつより多くの入力パラメータをカバーすることができる。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Transfer learning for atomistic simulations using GNNs and kernel mean
embeddings [24.560340485988128]
本稿では, グラフニューラルネットワーク(GNN)を用いて, カーネル平均埋め込みとともに, 化学環境を表現するトランスファー学習アルゴリズムを提案する。
我々は,複雑性を増大させる一連の現実的なデータセットに対して,我々のアプローチを検証し,優れた一般化と伝達可能性性能を示す。
論文 参考訳(メタデータ) (2023-06-02T14:58:16Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Surrogate Neural Networks for Efficient Simulation-based Trajectory
Planning Optimization [28.292234483886947]
本稿では、ニューラルネットワークの形で代理モデルを用いて、参照軌道のシミュレーションに基づく最適化の計算時間を短縮する手法を提案する。
提案手法は,従来よりも74%優れた参照軌道が得られており,計算時間が大幅に短縮されることが明らかとなった。
論文 参考訳(メタデータ) (2023-03-30T15:44:30Z) - Learning Large-scale Subsurface Simulations with a Hybrid Graph Network
Simulator [57.57321628587564]
本研究では3次元地下流体の貯留層シミュレーションを学習するためのハイブリッドグラフネットワークシミュレータ (HGNS) を提案する。
HGNSは、流体の進化をモデル化する地下グラフニューラルネットワーク(SGNN)と、圧力の進化をモデル化する3D-U-Netで構成されている。
産業標準地下フローデータセット(SPE-10)と1100万セルを用いて,HGNSが標準地下シミュレータの18倍の推算時間を短縮できることを実証した。
論文 参考訳(メタデータ) (2022-06-15T17:29:57Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Simulating Liquids with Graph Networks [25.013244956897832]
流体力学を学習するためのグラフニューラルネットワーク(GNN)について検討する。
以上の結果から,GNNなどの学習モデルでは,学習セットが他の問題固有の相関関係を欠きない限り,基礎となる力学を正確に学習できないことが示唆された。
論文 参考訳(メタデータ) (2022-03-14T15:39:27Z) - A Graph Neural Network Framework for Grid-Based Simulation [0.9137554315375922]
本稿では,シミュレーションの実行を置き換え,最適化プロセスを高速化する代理フィードフォワードモデルを構築するためのグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々のGNNフレームワークは、石油やガス、炭素捕獲シークエンス(CCS)など、よく関連する地下最適化の応用に大きな可能性を示している。
論文 参考訳(メタデータ) (2022-02-05T22:48:16Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。