論文の概要: Large Language Models for Human-Machine Collaborative Particle Accelerator Tuning through Natural Language
- arxiv url: http://arxiv.org/abs/2405.08888v1
- Date: Tue, 14 May 2024 18:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 15:05:10.446652
- Title: Large Language Models for Human-Machine Collaborative Particle Accelerator Tuning through Natural Language
- Title(参考訳): 自然言語による人間・機械協調粒子加速器の大規模言語モデル
- Authors: Jan Kaiser, Annika Eichler, Anne Lauscher,
- Abstract要約: 本稿では,粒子加速器をチューニングするための大規模言語モデル (LLM) を提案する。
演算子からの自然言語のみに基づいて,LLMが粒子加速器サブシステムを正常かつ自律的にチューニングできることを実証する。
また,LLMが高非線形実世界の目的関数の数値最適化を行う方法を示す。
- 参考スコア(独自算出の注目度): 14.551969747057642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous tuning of particle accelerators is an active and challenging field of research with the goal of enabling novel accelerator technologies cutting-edge high-impact applications, such as physics discovery, cancer research and material sciences. A key challenge with autonomous accelerator tuning remains that the most capable algorithms require an expert in optimisation, machine learning or a similar field to implement the algorithm for every new tuning task. In this work, we propose the use of large language models (LLMs) to tune particle accelerators. We demonstrate on a proof-of-principle example the ability of LLMs to successfully and autonomously tune a particle accelerator subsystem based on nothing more than a natural language prompt from the operator, and compare the performance of our LLM-based solution to state-of-the-art optimisation algorithms, such as Bayesian optimisation (BO) and reinforcement learning-trained optimisation (RLO). In doing so, we also show how LLMs can perform numerical optimisation of a highly non-linear real-world objective function. Ultimately, this work represents yet another complex task that LLMs are capable of solving and promises to help accelerate the deployment of autonomous tuning algorithms to the day-to-day operations of particle accelerators.
- Abstract(参考訳): 粒子加速器の自律的なチューニングは、物理発見、がん研究、物質科学などの最先端の高インパクト応用を可能にすることを目的として、活発で挑戦的な研究分野である。
自律的な加速器チューニングにおける重要な課題は、最も有能なアルゴリズムは、新しいチューニングタスクごとにアルゴリズムを実装するために、最適化や機械学習、あるいは同様の分野の専門家を必要とすることである。
本研究では,粒子加速器をチューニングするための大規模言語モデル (LLM) を提案する。
本稿では,LLMが演算子からの自然言語のみに基づいて粒子加速器サブシステムを正常かつ自律的にチューニングできることの実証例を示し,その性能をベイズ最適化(BO)や強化学習訓練最適化(RLO)などの最先端最適化アルゴリズムと比較する。
また,LLMが高非線形実世界の目的関数の数値最適化を行う方法を示す。
最終的にこの研究は、LLMが解決し、粒子加速器の日々の操作に自律的なチューニングアルゴリズムの展開を加速するのに役立つ、さらに複雑なタスクを表している。
関連論文リスト
- EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - LLMs can Schedule [3.435169201271934]
ジョブショップスケジューリング問題(JSSP)は、生産プロセスの最適化において重要なハードルであり続けている。
本稿では,JSSPにおけるLarge Language Models(LLM)の可能性について検討する。
驚くべきことに,LLMに基づくスケジューリングは,他のニューラルアプローチに匹敵する性能を達成できることを示した。
論文 参考訳(メタデータ) (2024-08-13T15:53:58Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - A Comprehensive Performance Study of Large Language Models on Novel AI
Accelerators [2.88634411143577]
大規模言語モデル(LLM)は、いくつかの課題に対処するための有望なアプローチと考えられている。
専門のAIアクセラレータハードウェアシステムは、最近、AIアプリケーションの高速化に利用できるようになった。
論文 参考訳(メタデータ) (2023-10-06T21:55:57Z) - Use Your INSTINCT: INSTruction optimization for LLMs usIng Neural bandits Coupled with Transformers [66.823588073584]
大規模言語モデル (LLM) は命令追従能力に優れ、様々なアプリケーションで優れた性能を発揮している。
最近の研究は、ブラックボックスLLMに与えられる命令を自動的に最適化するために、クエリ効率のよいベイズ最適化(BO)アルゴリズムを用いている。
NNサロゲートによりBOのGPを置換し,ブラックボックスLLMの命令を最適化するニューラルバンディットアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:16Z) - GPT4AIGChip: Towards Next-Generation AI Accelerator Design Automation
via Large Language Models [32.58951432235751]
GPT4AIGChipは、人間の自然言語を活用してAIアクセラレータ設計を民主化するためのフレームワークである。
この研究は、LLMを利用した自動AIアクセラレータ生成のための効果的なパイプラインを初めて実証したものだ。
論文 参考訳(メタデータ) (2023-09-19T16:14:57Z) - Learning to Do or Learning While Doing: Reinforcement Learning and
Bayesian Optimisation for Online Continuous Tuning [0.0]
本稿では,実粒子加速器におけるルーチンタスクを用いた比較研究を例に挙げる。
本研究の結果から,与えられたチューニングタスクに対するアルゴリズムの選択を導くための明確な基準セットを提供する。
これにより、複雑な現実世界のプラントの運用において、学習ベースの自律的チューニングソリューションの採用が容易になる。
論文 参考訳(メタデータ) (2023-06-06T14:56:47Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - Autonomous Control of a Particle Accelerator using Deep Reinforcement
Learning [2.062593640149623]
本稿では,大規模線形粒子加速器の最適制御ポリシーを学習するためのアプローチについて述べる。
このフレームワークは、状態とアクション空間の表現にディープニューラルネットワークを使用するAIコントローラで構成されている。
最初の結果から,粒子線電流と分布の点で,人間よりも優れたレベルの性能が得られることが示唆された。
論文 参考訳(メタデータ) (2020-10-16T04:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。