論文の概要: Automated Design Optimization via Strategic Search with Large Language Models
- arxiv url: http://arxiv.org/abs/2511.22651v1
- Date: Thu, 27 Nov 2025 17:42:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.664771
- Title: Automated Design Optimization via Strategic Search with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた戦略探索による自動設計最適化
- Authors: Anthony Carreon, Vansh Sharma, Venkat Raman,
- Abstract要約: AUTOは、設計最適化を戦略的LLM推論によって導かれる勾配のない探索問題として扱うフレームワークである。
中央値のソフトウェア開発者は最大480ドルと見積もられているのに対して、1ラン当たり159ドルと推定されるコストで、約8時間で最適化を完了する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional optimization methods excel in well-defined search spaces but struggle with design problems where transformations and design parameters are difficult to define. Large language models (LLMs) offer a promising alternative by dynamically interpreting design spaces and leveraging encoded domain knowledge. To this end, we introduce AUTO, an LLM agent framework that treats design optimization as a gradient-free search problem guided by strategic LLM reasoning. The framework employs two collaborative agents: a Strategist that selects between exploration and exploitation strategies, and an Implementor that executes detailed designs. Applied to GPU code optimization -- a domain critical to fields from machine learning to scientific computing -- AUTO generates solutions competitive with expert implementations for chemical kinetics integration and dense matrix multiplication. The framework achieves 50-70% search efficiency relative to Bayesian optimization methodologies. It completes optimizations in approximately 8 hours at an estimated cost of up to \$159 per run, compared to an estimated cost of up to \$480 with median-wage software developers. These findings open the door to automating design optimization in ill-defined search spaces with limited prior information.
- Abstract(参考訳): 従来の最適化手法は、よく定義された探索空間において優れているが、変換や設計パラメータを定義するのが難しい設計問題に苦慮している。
大規模言語モデル(LLM)は、設計空間を動的に解釈し、符号化されたドメイン知識を活用することで、有望な代替手段を提供する。
この目的のために,設計最適化を戦略的 LLM 推論で導かれる勾配のない探索問題として扱う LLM エージェントフレームワークである AUTO を紹介する。
このフレームワークには、探索と搾取の戦略を選択するストラテジストと、詳細な設計を実行するインプメンタという2つの協調エージェントが使用されている。
AUTOは、機械学習から科学計算まで、分野にとって重要な分野であるGPUコードの最適化に適用する。AUTOは、化学動力学の統合と密度の高い行列乗算のための専門的な実装と競合するソリューションを生成する。
このフレームワークはベイズ最適化手法と比較して50~70%の探索効率を達成する。
中央値のソフトウェア開発者には最大で480ドルという見積のコストに対して、1ラン当たり159ドルという見積のコストで約8時間で最適化を完了する。
これらの知見は、事前情報に制限のある未定義の検索空間における設計最適化を自動化するための扉を開く。
関連論文リスト
- Large Language Model Assisted Automated Algorithm Generation and Evolution via Meta-black-box optimization [9.184788298623062]
AwesomeDEは大規模言語モデル(LLM)をメタ最適化の戦略として活用し、人間の介入なしに制約付き進化アルゴリズムの更新ルールを生成する。
素早い設計と反復的な改良を含む重要なコンポーネントは、設計品質への影響を判断するために体系的に分析される。
実験の結果,提案手法は計算効率と解の精度で既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-09-16T17:02:24Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Deep Insights into Automated Optimization with Large Language Models and Evolutionary Algorithms [3.833708891059351]
大きな言語モデル(LLM)と進化的アルゴリズム(EA)は、制限を克服し、最適化をより自動化するための有望な新しいアプローチを提供する。
LLMは最適化戦略の生成、洗練、解釈が可能な動的エージェントとして機能する。
EAは進化作用素を通して、複雑な解空間を効率的に探索する。
論文 参考訳(メタデータ) (2024-10-28T09:04:49Z) - ADO-LLM: Analog Design Bayesian Optimization with In-Context Learning of Large Language Models [5.642568057913696]
本稿では,大規模言語モデル(LLM)とベイジアン最適化を統合したアナログ設計最適化手法であるADO-LLMを提案する。
ADO-LLMは、LLMのドメイン知識を注入して実行可能な設計ポイントを迅速に生成し、高価値な設計領域を見つけるためのBOの非効率性を改善する能力を活用している。
提案手法を2種類のアナログ回路上で評価し,設計効率と性能の顕著な向上を実証した。
論文 参考訳(メタデータ) (2024-06-26T21:42:50Z) - A Problem-Oriented Perspective and Anchor Verification for Code Optimization [43.28045750932116]
大規模言語モデル(LLM)は、様々なプログラミングタスクを解く際、顕著な能力を示している。
本稿では,LLMが最小実行時間に最適化する能力について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。