論文の概要: Guiding Application Users via Estimation of Computational Resources for Massively Parallel Chemistry Computations
- arxiv url: http://arxiv.org/abs/2509.20667v1
- Date: Thu, 25 Sep 2025 02:00:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.653175
- Title: Guiding Application Users via Estimation of Computational Resources for Massively Parallel Chemistry Computations
- Title(参考訳): 大規模並列化学計算のための計算資源推定によるアプリケーションユーザ誘導
- Authors: Tanzila Tabassum, Omer Subasi, Ajay Panyala, Epiya Ebiapia, Gerald Baumgartner, Erdal Mutlu, P., Sadayappan, Karol Kowalski,
- Abstract要約: 我々は,スーパーコンピュータ上で高価な実験を行うことにコミットする前に,アプリケーションユーザを誘導する機械学習戦略を開発する。
アプリケーション実行時間の予測により、ノード数やタイルサイズなどの最適な実行時パラメータ値を決定する。
- 参考スコア(独自算出の注目度): 0.39728489102666065
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we develop machine learning (ML) based strategies to predict resources (costs) required for massively parallel chemistry computations, such as coupled-cluster methods, to guide application users before they commit to running expensive experiments on a supercomputer. By predicting application execution time, we determine the optimal runtime parameter values such as number of nodes and tile sizes. Two key questions of interest to users are addressed. The first is the shortest-time question, where the user is interested in knowing the parameter configurations (number of nodes and tile sizes) to achieve the shortest execution time for a given problem size and a target supercomputer. The second is the cheapest-run question in which the user is interested in minimizing resource usage, i.e., finding the number of nodes and tile size that minimizes the number of node-hours for a given problem size. We evaluate a rich family of ML models and strategies, developed based on the collections of runtime parameter values for the CCSD (Coupled Cluster with Singles and Doubles) application executed on the Department of Energy (DOE) Frontier and Aurora supercomputers. Our experiments show that when predicting the total execution time of a CCSD iteration, a Gradient Boosting (GB) ML model achieves a Mean Absolute Percentage Error (MAPE) of 0.023 and 0.073 for Aurora and Frontier, respectively. In the case where it is expensive to run experiments just to collect data points, we show that active learning can achieve a MAPE of about 0.2 with just around 450 experiments collected from Aurora and Frontier.
- Abstract(参考訳): 本研究では,スーパーコンピュータ上で高価な実験を行う前にアプリケーションユーザを誘導するために,結合クラスタ法などの大規模並列計算に必要な資源(コスト)を予測する機械学習(ML)ベースの戦略を開発する。
アプリケーション実行時間の予測により、ノード数やタイルサイズなどの最適な実行時パラメータ値を決定する。
ユーザへの関心に関する2つの重要な疑問に対処する。
1つ目は、ユーザがパラメータ設定(ノード数とタイルサイズ)を知って、与えられた問題サイズとターゲットスーパーコンピュータの最も短い実行時間を達成することに興味を持つ、最短の質問である。
2つ目は、ユーザがリソース使用量を最小化することに関心を持つ最も安価な問題である。
我々は,エネルギー省フロンティアとオーロラのスーパーコンピュータ上で実行されるCCSD(Coupled Cluster with Singles and Doubles)アプリケーションに対して,実行時のパラメータ値のコレクションに基づいて,MLモデルと戦略の豊富なファミリーを評価した。
実験により, CCSDイテレーションの総実行時間を予測する場合, グラディエントブースティング(GB) MLモデルは, オーロラとフロンティアのそれぞれ0.023と0.073の平均絶対パーセンテージ誤差(MAPE)を達成することがわかった。
データポイント収集のためだけに実験を行うのに費用がかかる場合、AuroraとFrontierから収集した約450の実験で、約0.2のMAPEをアクティブラーニングで達成できることが示される。
関連論文リスト
- $\texttt{SPECS}$: Faster Test-Time Scaling through Speculative Drafts [55.231201692232894]
$textttSPECS$は、投機的デコードにインスパイアされた遅延対応のテスト時間スケーリングメソッドである。
我々の結果は、$textttSPECS$matchはビームサーチの精度を上回り、最大$sim$19.1%のレイテンシを削減していることを示している。
論文 参考訳(メタデータ) (2025-06-15T05:50:05Z) - Value-Based Deep RL Scales Predictably [100.21834069400023]
本研究は, 地域社会が病的行動に不安を抱いているにもかかわらず, 価値に基づく非政治的RL法が予測可能であることを示す。
SAC、BRO、PQLの3つのアルゴリズムを使って、DeepMind Control、OpenAI gym、IsaacGymの3つのアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:59:47Z) - Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs [76.43407125275202]
o1のようなモデルは、推論中に人間のような長時間の思考をエミュレートすることができる。
本論文は,これらのモデルにおける過度な考察の課題に関する,最初の包括的研究である。
精度を損なうことなく、過剰思考を緩和し、推論プロセスを合理化するための戦略を提案する。
論文 参考訳(メタデータ) (2024-12-30T18:55:12Z) - Scaling LLM Test-Time Compute Optimally can be More Effective than Scaling Model Parameters [27.656263126925815]
LLMにおける推論時間計算のスケーリングについて検討する。
どちらの場合も、テスト時間計算のスケーリングに対する異なるアプローチの有効性は、プロンプトの難しさによって大きく異なることがわかった。
論文 参考訳(メタデータ) (2024-08-06T17:35:05Z) - A Training Data Recipe to Accelerate A* Search with Language Models [3.037409201025504]
A*のような検索アルゴリズムを備えた大規模言語モデル(LLM)は、拡張された推論とスケーラブルな推論の約束を持っている。
我々は,A*探索アルゴリズムの要件を LLM の要件から実験的に切り離して,この課題を一般化する。
提案手法は,解を見つけるのに要する反復回数を最大15倍に削減し,壁面通過速度を最大5倍に向上させる。
論文 参考訳(メタデータ) (2024-07-13T19:21:44Z) - Scaling Sparse Fine-Tuning to Large Language Models [67.59697720719672]
大きな言語モデル(LLM)は、パラメータの数が多いため、完全な微調整が難しい。
本研究では,パラメータの配列とパラメータのデルタを事前学習した値に対して保持する新しいスパース微調整法SpIELを提案する。
提案手法は,LoRAのようなパラメータ効率の高い微調整法よりも性能が優れ,実行時間も同等であることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:43:49Z) - Two-step hyperparameter optimization method: Accelerating hyperparameter
search by using a fraction of a training dataset [0.15420205433587747]
計算要求と待ち時間を抑制するための戦略的ソリューションとして,2段階のHPO法を提案する。
我々は最近の2段階HPO法のエアロゾル活性化のためのニューラルネットワークエミュレータ開発への応用について述べる。
論文 参考訳(メタデータ) (2023-02-08T02:38:26Z) - Multipoint-BAX: A New Approach for Efficiently Tuning Particle
Accelerator Emittance via Virtual Objectives [47.52324722637079]
マルチポイントクエリにおけるブラックボックス最適化のための情報理論アルゴリズムであるMultipoint-BAXを提案する。
我々はマルチポイントBAXを用いてLinac Coherent Light Source(LCLS)とAdvanced Accelerator Experimental Tests II(FACET-II)の発光を最小化する。
論文 参考訳(メタデータ) (2022-09-10T04:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。