論文の概要: Prior-mean-assisted Bayesian optimization application on FRIB Front-End
tunning
- arxiv url: http://arxiv.org/abs/2211.06400v1
- Date: Fri, 11 Nov 2022 18:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 17:15:54.662758
- Title: Prior-mean-assisted Bayesian optimization application on FRIB Front-End
tunning
- Title(参考訳): FRIBフロントエンドチューニングにおける事前平均ベイズ最適化
- Authors: Kilean Hwang, Tomofumi Maruta, Alexander Plastun, Kei Fukushima, Tong
Zhang, Qiang Zhao, Peter Ostroumov, Yue Hao
- Abstract要約: 我々は、FRIBフロントエンドチューニングのためのBOの事前平均として、過去のデータに基づいてトレーニングされたニューラルネットワークモデルを利用する。
本稿では、FRIBフロントエンドチューニングのためのBOの事前平均として、過去のデータに基づいてトレーニングされたニューラルネットワークモデルを利用する。
- 参考スコア(独自算出の注目度): 61.78406085010957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization~(BO) is often used for accelerator tuning due to its
high sample efficiency. However, the computational scalability of training over
large data-set can be problematic and the adoption of historical data in a
computationally efficient way is not trivial. Here, we exploit a neural network
model trained over historical data as a prior mean of BO for FRIB Front-End
tuning.
- Abstract(参考訳): ベイズ最適化~(BO)は高いサンプル効率のために加速器チューニングによく用いられる。
しかし,大規模データセットに対するトレーニングの計算スケーラビリティには問題があり,計算効率のよい手法による履歴データの導入は容易ではない。
ここでは、FRIBフロントエンドチューニングのためのBOの事前平均として、過去のデータに基づいてトレーニングされたニューラルネットワークモデルを利用する。
関連論文リスト
- PG-LBO: Enhancing High-Dimensional Bayesian Optimization with
Pseudo-Label and Gaussian Process Guidance [31.585328335396607]
現在の主流の手法は、ラベルのないデータのプールを利用して潜在空間を構築する可能性を見落としている。
ラベル付きデータのガイダンスを用いてラベル付きデータを効果的に活用するための新しい手法を提案する。
提案手法は,様々な最適化シナリオにおいて,既存のVAE-BOアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2023-12-28T11:57:58Z) - Provably Efficient Bayesian Optimization with Unbiased Gaussian Process
Hyperparameter Estimation [52.035894372374756]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Influence-Based Mini-Batching for Graph Neural Networks [0.0]
グラフニューラルネットワークに対する影響に基づくミニバッチを提案する。
IBMBは従来の手法に比べて最大130倍の推論を高速化する。
これにより、エポック毎のトレーニングが最大18倍、ランタイム毎のコンバージェンス毎のコンバージェンスの最大17倍高速になる。
論文 参考訳(メタデータ) (2022-12-18T13:27:01Z) - Optimizing Closed-Loop Performance with Data from Similar Systems: A
Bayesian Meta-Learning Approach [1.370633147306388]
性能最適化タスクから収集したデータに基づいて,メタ学習を用いて初期サロゲートモデルを生成する。
制御系の性能最適化を高速化するためのDKN-BO手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-10-31T18:25:47Z) - Event-Triggered Time-Varying Bayesian Optimization [50.75288243335385]
ET-GP-UCBは最適化問題を静的として扱い、対象関数の変化をオンラインで検出し、データセットをリセットする。
ET-GP-UCBは, 合成および実世界のデータに対して, 最先端のアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-08-23T07:50:52Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Feasible Low-thrust Trajectory Identification via a Deep Neural Network
Classifier [1.5076964620370268]
本研究は、最適化プロセスに先立って、実現可能な低推力移動を正確に識別するディープニューラルネットワーク(DNN)を提案する。
DNN分類器の全体的な精度は97.9%であり、テストアルゴリズムの中では最高の性能である。
論文 参考訳(メタデータ) (2022-02-10T11:34:37Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Federated Bayesian Optimization via Thompson Sampling [33.087439644066876]
本稿では,FBOとFLの主な課題を原則的に克服するフェデレートトンプソンサンプリング(FTS)を提案する。
通信効率, 計算効率, 実用性能の観点から, FTS の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-10-20T09:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。