論文の概要: SOLID: a Framework of Synergizing Optimization and LLMs for Intelligent Decision-Making
- arxiv url: http://arxiv.org/abs/2511.15202v1
- Date: Wed, 19 Nov 2025 07:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.689617
- Title: SOLID: a Framework of Synergizing Optimization and LLMs for Intelligent Decision-Making
- Title(参考訳): SOLID: インテリジェント意思決定のための最適化とLLMのためのフレームワーク
- Authors: Yinsheng Wang, Tario G You, Léonard Boussioux, Shan Liu,
- Abstract要約: SOLIDは、大規模言語モデル(LLM)の文脈能力と数学的最適化を統合するフレームワークである。
この枠組みは凸性仮定の下で理論収束保証を保持しており、LLMの設計に関する洞察を与えている。
実験結果は,様々なシナリオにおける収束を示し,ベースラインのみの手法と比較して年次リターンを示す。
- 参考スコア(独自算出の注目度): 13.975554366504587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces SOLID (Synergizing Optimization and Large Language Models for Intelligent Decision-Making), a novel framework that integrates mathematical optimization with the contextual capabilities of large language models (LLMs). SOLID facilitates iterative collaboration between optimization and LLMs agents through dual prices and deviation penalties. This interaction improves the quality of the decisions while maintaining modularity and data privacy. The framework retains theoretical convergence guarantees under convexity assumptions, providing insight into the design of LLMs prompt. To evaluate SOLID, we applied it to a stock portfolio investment case with historical prices and financial news as inputs. Empirical results demonstrate convergence under various scenarios and indicate improved annualized returns compared to a baseline optimizer-only method, validating the synergy of the two agents. SOLID offers a promising framework for advancing automated and intelligent decision-making across diverse domains.
- Abstract(参考訳): 本稿では,SOLID(Synergizing Optimization and Large Language Models for Intelligent Decision-Making)を紹介する。
SOLIDは、最適化とLLMエージェントの反復的な協調を促進する。
このインタラクションは、モジュラリティとデータのプライバシを維持しながら、意思決定の品質を改善する。
この枠組みは凸性仮定の下で理論収束保証を保持しており、LLMのプロンプトの設計に関する洞察を提供する。
SOLIDを評価するために、歴史的価格と金融ニュースを入力として、株式ポートフォリオ投資ケースに適用した。
実験により,様々なシナリオ下での収束を実証し,ベースラインオプティマイザのみの手法と比較して年次リターンの改善を示し,両者の相乗効果を検証した。
SOLIDは、さまざまなドメインにわたる自動化されたインテリジェントな意思決定を促進するための、有望なフレームワークを提供する。
関連論文リスト
- ART: Adaptive Response Tuning Framework -- A Multi-Agent Tournament-Based Approach to LLM Response Optimization [0.0]
大規模言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示した。
本稿では,トーナメント型ELOランキングとマルチエージェント推論を用いたART(Adaptive Response Tuning)を提案する。
論文 参考訳(メタデータ) (2025-11-29T20:16:11Z) - DAOpt: Modeling and Evaluation of Data-Driven Optimization under Uncertainty with LLMs [16.64448837405414]
大規模言語モデル(LLM)の最近の進歩は、自動最適化モデリングの研究を加速させている。
DAOpt フレームワークは,新たなデータセット OptU,マルチエージェント意思決定モジュール,LLM 評価のためのシミュレーション環境を含む。
論文 参考訳(メタデータ) (2025-09-24T08:19:28Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - From Natural Language to Solver-Ready Power System Optimization: An LLM-Assisted, Validation-in-the-Loop Framework [1.7136832159667206]
本稿では,Large Language Models (LLMs) を用いたエージェントを導入し,電力系統最適化シナリオの自然言語記述を,コンパクトで解決可能な定式化に自動変換する。
提案手法は,オフザシェルフ最適化解法により効率よく解ける数学的に互換性のある定式化の発見に重点を置いている。
論文 参考訳(メタデータ) (2025-08-11T16:22:57Z) - Large Language Model-Driven Surrogate-Assisted Evolutionary Algorithm for Expensive Optimization [22.024630467760264]
サロゲート支援進化アルゴリズム(SAEA)は、コストのかかる最適化タスクに対処するための重要なツールである。
本稿では,大規模言語モデル (LLM) を統合した新しい手法 LLM-SAEA を提案する。
論文 参考訳(メタデータ) (2025-06-20T13:44:21Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Dynamic Optimizations of LLM Ensembles with Two-Stage Reinforcement Learning Agents [31.341487297459995]
本稿では,LLMをルートおよびアンサンブルする2段階のRLエージェントフレームワークであるRL-Focalを紹介する。
焦点多様性により、報酬意識と政策適応型アンサンブル選択と推論融合を効果的に促進することにより、タスク間のパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2025-02-06T20:44:26Z) - Federated Fine-Tuning of LLMs: Framework Comparison and Research Directions [59.5243730853157]
Federated Learning(FL)は、分散プライベートデータセットを使用して、トレーニング済みの大規模言語モデル(LLM)を微調整するための、プライバシ保護ソリューションを提供する。
本稿では、知識蒸留(KD)とスプリットラーニング(SL)を統合し、これらの問題を緩和する3つの先進的連合LLM(FedLLM)フレームワークの比較分析を行う。
論文 参考訳(メタデータ) (2025-01-08T11:37:06Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Bridging Large Language Models and Optimization: A Unified Framework for Text-attributed Combinatorial Optimization [21.232626415696267]
Language-based Neural COPsolvr (LNCS)は、多種多様なテキスト対応COPのエンドツーエンド解決のために統一された新しいフレームワークである。
広汎な実験により、LNCSの有効性と一般化性が検証され、現実世界のCOPアプリケーションのための統一的で実用的なフレームワークとしての可能性を強調した。
論文 参考訳(メタデータ) (2024-08-22T08:42:44Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Enhancing Decision-Making in Optimization through LLM-Assisted Inference: A Neural Networks Perspective [1.0420394952839245]
本稿では,生成型AI(GenAI)と進化型アルゴリズム(EA)のシームレスな統合について検討する。
大規模言語モデル(LLM)の変換的役割に着目し,LLM支援推論による意思決定プロセスの自動化と向上の可能性について検討した。
論文 参考訳(メタデータ) (2024-05-12T08:22:53Z) - Benchmarking PtO and PnO Methods in the Predictive Combinatorial Optimization Regime [59.27851754647913]
予測最適化(英: Predictive optimization)は、エネルギーコストを意識したスケジューリングや広告予算配分など、多くの現実世界のアプリケーションの正確なモデリングである。
我々は,広告のための新しい産業データセットを含む8つの問題に対して,既存のPtO/PnOメソッド11をベンチマークするモジュラーフレームワークを開発した。
本研究は,8ベンチマーク中7ベンチマークにおいて,PnOアプローチがPtOよりも優れていることを示すが,PnOの設計選択に銀の弾丸は見つからない。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。