論文の概要: Large Language Models for Physics Instrument Design
- arxiv url: http://arxiv.org/abs/2601.07580v1
- Date: Mon, 12 Jan 2026 14:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.445763
- Title: Large Language Models for Physics Instrument Design
- Title(参考訳): 物理機器設計のための大規模言語モデル
- Authors: Sara Zoccheddu, Shah Rukh Qasim, Patrick Owen, Nicola Serra,
- Abstract要約: 物理機器設計における大規模言語モデル(LLM)の利用について検討し、その性能を強化学習(RL)と比較する。
RL はより強力な最終設計をもたらすが、現代の LLM は、有効で、リソースを意識し、物理的に意味のある構成を一貫して生成する。
そのため、自動クローズドループ・インスツルメンツの設計に向け、最適化の構築と監督に要する人的労力を削減できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the use of large language models (LLMs) for physics instrument design and compare their performance to reinforcement learning (RL). Using only prompting, LLMs are given task constraints and summaries of prior high-scoring designs and propose complete detector configurations, which we evaluate with the same simulators and reward functions used in RL-based optimization. Although RL yields stronger final designs, we find that modern LLMs consistently generate valid, resource-aware, and physically meaningful configurations that draw on broad pretrained knowledge of detector design principles and particle--matter interactions, despite having no task-specific training. Based on this result, as a first step toward hybrid design workflows, we explore pairing the LLMs with a dedicated trust region optimizer, serving as a precursor to future pipelines in which LLMs propose and structure design hypotheses while RL performs reward-driven optimization. Based on these experiments, we argue that LLMs are well suited as meta-planners: they can design and orchestrate RL-based optimization studies, define search strategies, and coordinate multiple interacting components within a unified workflow. In doing so, they point toward automated, closed-loop instrument design in which much of the human effort required to structure and supervise optimization can be reduced.
- Abstract(参考訳): 本研究では,物理機器設計における大規模言語モデル (LLM) の利用について検討し,その性能を強化学習 (RL) と比較した。
プロンプトのみを用いることで,従来の高階化設計のタスク制約と要約を付与し,RLに基づく最適化で用いられるシミュレータと報酬関数を用いて,完全な検出器構成を提案する。
RLはより強力な最終設計をもたらすが、現代のLLMは、タスク固有の訓練をしていないにもかかわらず、検出器設計の原則や粒子-物質相互作用に関する幅広い事前訓練された知識に基づいて、有効で、リソース対応で、物理的に意味のある構成を一貫して生成している。
この結果に基づき、ハイブリッド設計ワークフローへの第一歩として、LLが報酬駆動最適化を行う間、LLMが提案し、構造設計が仮定される将来のパイプラインの先駆けとなる、専用の信頼領域最適化器とのLLMのペアリングについて検討する。
これらの実験に基づき,LSMはメタプランナとして適しており,RLに基づく最適化研究を設計・編成したり,探索戦略を定義したり,統合されたワークフロー内で複数の相互作用するコンポーネントをコーディネートしたりすることができる。
そのため、自動クローズドループ・インスツルメンツの設計に向け、最適化の構築と監督に要する人的労力を削減できる。
関連論文リスト
- Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Omni-Thinker: Scaling Multi-Task RL in LLMs with Hybrid Reward and Task Scheduling [66.0871543682453]
我々はOmni-Thinkerについて紹介する。Omni-Thinkerは多種多様なタスクにわたって大きな言語モデルをスケールする統合強化学習フレームワークである。
我々のスケジューラは,BWTに基づいてタスクを順序付けし,マルチタスク性能を向上する。
論文 参考訳(メタデータ) (2025-07-20T01:50:16Z) - LLMs for Engineering: Teaching Models to Design High Powered Rockets [0.0]
大規模言語モデル (LLM) はソフトウェア工学に変化をもたらしたが、物理工学領域への応用はいまだ検討されていない。
本稿ではロケットベンチによる高出力ロケット設計におけるLLMの性能評価を行う。
我々は、目標高度最適化と高精度着陸という2つの複雑な設計課題に関するモデルをテストする。
論文 参考訳(メタデータ) (2025-04-27T23:59:39Z) - SWEET-RL: Training Multi-Turn LLM Agents on Collaborative Reasoning Tasks [110.20297293596005]
大規模言語モデル(LLM)エージェントは、実世界のタスクでマルチターンインタラクションを実行する必要がある。
LLMエージェントを最適化するための既存のマルチターンRLアルゴリズムは、LLMの一般化能力を活用しながら、複数回にわたって効果的なクレジット割り当てを行うことができない。
本稿では,新たなRLアルゴリズムであるSWEET-RLを提案する。
我々の実験は、SWEET-RLがコルベンチにおける成功率と勝利率を、他の最先端マルチターンRLアルゴリズムと比較して6%向上することを示した。
論文 参考訳(メタデータ) (2025-03-19T17:55:08Z) - Using Large Language Models for Parametric Shape Optimization [2.464331481632096]
パラメータ化工学設計の最適形状を決定するための最適化フレームワーク LLM-PSO を開発した。
我々の予備調査は、LLMの形状最適化と工学設計をより広範囲に活用するためのさらなる研究を刺激する可能性がある。
論文 参考訳(メタデータ) (2024-12-11T03:35:38Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では、FEMモジュールと協調して事前訓練された大規模言語モデル(LLM)を利用して、構造設計を自律的に生成、評価、洗練するフレームワークを提案する。
LLMはドメイン固有の微調整なしで動作し、設計候補を提案し、FEMから派生した性能指標を解釈し、構造的な音響修正を適用する。
NSGA-II (Non-Sorting Genetic Algorithm II) と比較して,本手法はより高速に収束し,より少ないFEM評価を実現する。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。