論文の概要: Reinforcement Learning for Accelerator Beamline Control: a simulation-based approach
- arxiv url: http://arxiv.org/abs/2510.26805v1
- Date: Sat, 18 Oct 2025 11:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-09 16:58:40.008796
- Title: Reinforcement Learning for Accelerator Beamline Control: a simulation-based approach
- Title(参考訳): 加速器ビームライン制御のための強化学習-シミュレーションに基づくアプローチ
- Authors: Anwar Ibrahim, Alexey Petrenko, Maxim Kaledin, Ehab Suleiman, Fedor Ratnikov, Denis Derkach,
- Abstract要約: RLABCはPythonベースのライブラリで、強化学習(RL)問題としてビームライン最適化を再構成する。
RLABCは標準格子と要素入力ファイルからRL環境を自動生成し、磁石の逐次チューニングにより粒子損失を最小限に抑える。
RLABCが2本のビームラインに対して有効であることを示し,94%と91%の伝送速度を専門家の手動最適化と比較した。
- 参考スコア(独自算出の注目度): 0.764101887158157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Particle accelerators play a pivotal role in advancing scientific research, yet optimizing beamline configurations to maximize particle transmission remains a labor-intensive task requiring expert intervention. In this work, we introduce RLABC (Reinforcement Learning for Accelerator Beamline Control), a Python-based library that reframes beamline optimization as a reinforcement learning (RL) problem. Leveraging the Elegant simulation framework, RLABC automates the creation of an RL environment from standard lattice and element input files, enabling sequential tuning of magnets to minimize particle losses. We define a comprehensive state representation capturing beam statistics, actions for adjusting magnet parameters, and a reward function focused on transmission efficiency. Employing the Deep Deterministic Policy Gradient (DDPG) algorithm, we demonstrate RLABC's efficacy on two beamlines, achieving transmission rates of 94% and 91%, comparable to expert manual optimizations. This approach bridges accelerator physics and machine learning, offering a versatile tool for physicists and RL researchers alike to streamline beamline tuning.
- Abstract(参考訳): 粒子加速器は科学研究の進展において重要な役割を担っているが、粒子伝達を最大化するためにビーム線の配置を最適化することは、専門家の介入を必要とする労働集約的な課題である。
本稿では,RLABC(Reinforcement Learning for Accelerator Beamline Control)を紹介する。
RLABCはエレガントシミュレーションフレームワークを活用し、標準格子と要素入力ファイルからRL環境を自動生成し、磁石の逐次チューニングにより粒子損失を最小限に抑える。
我々は、ビーム統計をキャプチャする包括的状態表現、磁石パラメータの調整のための動作、伝送効率に着目した報酬関数を定義する。
DDPG(Deep Deterministic Policy Gradient)アルゴリズムを用いて,RLABCが2本のビームラインに対して有効であることを示す。
このアプローチは加速器物理学と機械学習を橋渡しし、ビームラインチューニングの合理化と同様に、物理学者やRL研究者に汎用的なツールを提供する。
関連論文リスト
- Learning to Reason as Action Abstractions with Scalable Mid-Training RL [55.24192942739207]
効果的な中間訓練フェーズは、有用なアクションのコンパクトなセットを特定し、高速な選択を可能にする。
本稿では,スケーラブルなミッドトレーニングアルゴリズムであるReasoning as Action Abstractions (RA3)を提案する。
論文 参考訳(メタデータ) (2025-09-30T05:34:20Z) - IN-RIL: Interleaved Reinforcement and Imitation Learning for Policy Fine-Tuning [25.642307880136332]
イミテーションラーニング(IL)と強化ラーニング(RL)はそれぞれ、ロボットポリシーラーニングに明確なアドバンテージを提供する。
IL-based pre-training と RL-based fine-tuning を用いた既存のロボット学習アプローチは有望であるが、この2段階学習パラダイムは、RL 微細チューニングフェーズの不安定性とサンプル効率の低下に悩まされることが多い。
本研究では,政策微調整のためのIN-RIL,INterleaved Reinforcement Learning and Imitation Learningを紹介する。
論文 参考訳(メタデータ) (2025-05-15T16:01:21Z) - Optimisation of the Accelerator Control by Reinforcement Learning: A Simulation-Based Approach [0.615163395430594]
本研究では,Reinforcement Learning(RL)と統合されたシミュレーションベースのフレームワークの構築を目的とする。
シミュレーションバックエンドとして textttElegant を用い,RL アルゴリズムとアクセルシミュレーションの相互作用を簡略化する Python ラッパーを開発した。
提案したRLフレームワークは物理学者のコパイロットとして機能し,ビームライン性能の向上,チューニング時間短縮,運用効率の向上など,インテリジェントな提案を行う。
論文 参考訳(メタデータ) (2025-03-12T16:57:52Z) - Adaptive Data Exploitation in Deep Reinforcement Learning [50.53705050673944]
深層強化学習(RL)における**データ効率**と**一般化**を強化する強力なフレームワークであるADEPTを紹介する。
具体的には、ADEPTはマルチアーム・バンディット(MAB)アルゴリズムを用いて、異なる学習段階にわたるサンプルデータの使用を適応的に管理する。
Procgen、MiniGrid、PyBulletなどのベンチマークでADEPTをテストする。
論文 参考訳(メタデータ) (2025-01-22T04:01:17Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Large Language Models for Human-Machine Collaborative Particle Accelerator Tuning through Natural Language [14.551969747057642]
本稿では,粒子加速器をチューニングするための大規模言語モデル (LLM) を提案する。
演算子からの自然言語のみに基づいて,LLMが粒子加速器サブシステムを正常かつ自律的にチューニングできることを実証する。
また,LLMが高非線形実世界の目的関数の数値最適化を行う方法を示す。
論文 参考訳(メタデータ) (2024-05-14T18:05:44Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - Multipoint-BAX: A New Approach for Efficiently Tuning Particle
Accelerator Emittance via Virtual Objectives [47.52324722637079]
マルチポイントクエリにおけるブラックボックス最適化のための情報理論アルゴリズムであるMultipoint-BAXを提案する。
我々はマルチポイントBAXを用いてLinac Coherent Light Source(LCLS)とAdvanced Accelerator Experimental Tests II(FACET-II)の発光を最小化する。
論文 参考訳(メタデータ) (2022-09-10T04:01:23Z) - Autonomous Control of a Particle Accelerator using Deep Reinforcement
Learning [2.062593640149623]
本稿では,大規模線形粒子加速器の最適制御ポリシーを学習するためのアプローチについて述べる。
このフレームワークは、状態とアクション空間の表現にディープニューラルネットワークを使用するAIコントローラで構成されている。
最初の結果から,粒子線電流と分布の点で,人間よりも優れたレベルの性能が得られることが示唆された。
論文 参考訳(メタデータ) (2020-10-16T04:02:01Z) - Optimization-driven Deep Reinforcement Learning for Robust Beamforming
in IRS-assisted Wireless Communications [54.610318402371185]
Intelligent Reflecting Surface (IRS)は、マルチアンテナアクセスポイント(AP)から受信機へのダウンリンク情報伝達を支援する有望な技術である。
我々は、APのアクティブビームフォーミングとIRSのパッシブビームフォーミングを共同最適化することで、APの送信電力を最小化する。
過去の経験からビームフォーミング戦略に適応できる深層強化学習(DRL)手法を提案する。
論文 参考訳(メタデータ) (2020-05-25T01:42:55Z) - Sample Efficient Ensemble Learning with Catalyst.RL [13.726637149320272]
本稿では,再現性およびサンプル高効率強化学習(RL)研究のためのオープンソースフレームワークであるCatalyst.RLを提案する。
Catalyst.RLの主な特徴は、大規模非同期分散トレーニング、様々なRLアルゴリズムの効率的な実装、nステップの戻り値、値分布、双曲強化学習などの補助的なトリックである。
論文 参考訳(メタデータ) (2020-03-29T12:45:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。