論文の概要: Optimization through In-Context Learning and Iterative LLM Prompting for Nuclear Engineering Design Problems
- arxiv url: http://arxiv.org/abs/2503.19620v1
- Date: Tue, 25 Mar 2025 13:08:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:53:39.842557
- Title: Optimization through In-Context Learning and Iterative LLM Prompting for Nuclear Engineering Design Problems
- Title(参考訳): 核工学設計問題に対するインコンテキスト学習と反復LDMプロンプトによる最適化
- Authors: M. Rizki Oktavian, Anirudh Tunga, Amandeep Bakshi, Michael J. Mueterthies, J. Thomas Gruenwald, Jonathan Nistor,
- Abstract要約: 本研究では,これらの課題に対処するために,大規模言語モデル (LLM) を用いた反復的アプローチである Prompting による最適化の利用について検討する。
LLMの文脈内学習能力により、問題ニュアンスを理解することができるため、従来のメタヒューリスティック最適化手法を超越する可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The optimization of nuclear engineering designs, such as nuclear fuel assembly configurations, involves managing competing objectives like reactivity control and power distribution. This study explores the use of Optimization by Prompting, an iterative approach utilizing large language models (LLMs), to address these challenges. The method is straightforward to implement, requiring no hyperparameter tuning or complex mathematical formulations. Optimization problems can be described in plain English, with only an evaluator and a parsing script needed for execution. The in-context learning capabilities of LLMs enable them to understand problem nuances, therefore, they have the potential to surpass traditional metaheuristic optimization methods. This study demonstrates the application of LLMs as optimizers to Boiling Water Reactor (BWR) fuel lattice design, showing the capability of commercial LLMs to achieve superior optimization results compared to traditional methods.
- Abstract(参考訳): 核燃料組立構成のような核工学設計の最適化は、反応性制御や電力分配といった競合する目的を管理することを含む。
本研究では,これらの課題に対処するために,大規模言語モデル (LLM) を用いた反復的アプローチである Prompting による最適化の利用について検討する。
この方法は実装が簡単で、ハイパーパラメータチューニングや複雑な数学的定式化を必要としない。
最適化問題は平易な英語で記述でき、実行には評価子と解析スクリプトしか必要としない。
LLMの文脈内学習能力により、問題ニュアンスを理解することができるため、従来のメタヒューリスティック最適化手法を超越する可能性がある。
本研究は, ボイリング水反応器 (BWR) 燃料格子設計へのLLMの最適化手法の適用を実証し, 従来の方法と比較して優れた最適化結果を得る商業LLMの能力を示した。
関連論文リスト
- Teaching LLMs According to Their Aptitude: Adaptive Reasoning for Mathematical Problem Solving [55.895917967408586]
大規模な言語モデルによる数学的推論への既存のアプローチは、一般化可能性(英語版)にはChain-of-Thought(英語版)(CoT)、正確な計算にはTool-Integrated Reasoning(英語版)(TIR)に依存している。
本稿では, LLM が自然に推論戦略をパーソナライズできる適応型フレームワークである TATA (Teaching LLMs according their Aptitude) を提案する。
論文 参考訳(メタデータ) (2025-02-17T16:56:23Z) - Improving Existing Optimization Algorithms with LLMs [0.9668407688201361]
本稿では,Large Language Models (LLM) が既存の最適化アルゴリズムをどのように拡張するかを検討する。
事前学習した知識を用いて、革新的なバリエーションと実装戦略を提案する能力を示す。
以上の結果から, GPT-4oによる代替案はCMSAのエキスパート設計よりも優れていた。
論文 参考訳(メタデータ) (2025-02-12T10:58:57Z) - Large Language Models for Combinatorial Optimization of Design Structure Matrix [4.513609458468522]
エンジニアリングアプリケーションの効率と性能を改善するためには、組合せ最適化(CO)が不可欠である。
実世界の工学的問題に関しては、純粋数学的推論に基づくアルゴリズムは限定的であり、最適化に必要な文脈ニュアンスを捉えることができない。
本研究では,工学的CO問題の解法におけるLarge Language Models (LLMs) の可能性について,その推論能力と文脈的知識を活用して検討する。
論文 参考訳(メタデータ) (2024-11-19T15:39:51Z) - LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - When Large Language Model Meets Optimization [7.822833805991351]
大規模言語モデル(LLM)は、インテリジェントなモデリングと最適化における戦略的意思決定を容易にする。
本稿では,LLMと最適化アルゴリズムの組み合わせの進展と可能性について概説する。
論文 参考訳(メタデータ) (2024-05-16T13:54:37Z) - Large Language Model-Based Evolutionary Optimizer: Reasoning with
elitism [1.1463861912335864]
大規模言語モデル(LLM)は、顕著な推論能力を示している。
本稿では,LLMが様々なシナリオにまたがるゼロショット最適化能力を有していることを主張する。
LLMを用いた数値最適化手法を提案する。
論文 参考訳(メタデータ) (2024-03-04T13:57:37Z) - A Human-on-the-Loop Optimization Autoformalism Approach for
Sustainability [27.70596933019959]
本稿では,大規模言語モデル(LLM)を用いたパーソナライズされたエネルギー問題に対する自然な対話的アプローチについて概説する。
我々は,LLMを最適化解決器で強化し,ユーザの仕様や好みを理解し,応答する能力を高める戦略を提唱した。
提案手法は,自然言語タスク仕様を自動で最適化インスタンスに翻訳することで,人間誘導最適化オートフォーマリズムという新しい概念を開拓する。
論文 参考訳(メタデータ) (2023-08-20T22:42:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。