論文の概要: Towards Next Era of Multi-objective Optimization: Large Language Models as Architects of Evolutionary Operators
- arxiv url: http://arxiv.org/abs/2406.08987v1
- Date: Thu, 13 Jun 2024 10:35:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 18:34:37.163301
- Title: Towards Next Era of Multi-objective Optimization: Large Language Models as Architects of Evolutionary Operators
- Title(参考訳): 多目的最適化の次世代に向けて--進化的演算子のアーキテクトとしての大規模言語モデル
- Authors: Yuxiao Huang, Shenghao Wu, Wenjie Zhang, Jibin Wu, Liang Feng, Kay Chen Tan,
- Abstract要約: 多目的最適化問題(MOP)は、実世界の様々な応用で広く用いられている。
大規模言語モデル(LLM)は、プログラムの自律的開発と洗練を可能にすることで、ソフトウェア工学に革命をもたらした。
我々は,多岐にわたるMOPに対処するために,EA演算子を進化させる新しいLCMベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.14607885386587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective optimization problems (MOPs) are prevalent in various real-world applications, necessitating sophisticated solutions that balance conflicting objectives. Traditional evolutionary algorithms (EAs), while effective, often rely on domain-specific expert knowledge and iterative tuning, which can impede innovation when encountering novel MOPs. Very recently, the emergence of Large Language Models (LLMs) has revolutionized software engineering by enabling the autonomous development and refinement of programs. Capitalizing on this advancement, we propose a new LLM-based framework for evolving EA operators, designed to address a wide array of MOPs. This framework facilitates the production of EA operators without the extensive demands for expert intervention, thereby streamlining the design process. To validate the efficacy of our approach, we have conducted extensive empirical studies across various categories of MOPs. The results demonstrate the robustness and superior performance of our LLM-evolved operators.
- Abstract(参考訳): 多目的最適化問題(MOP)は、競合する目的のバランスをとる高度なソリューションを必要とする、様々な現実世界のアプリケーションで広く用いられている。
伝統的な進化的アルゴリズム(EA)は効果的であるが、しばしばドメイン固有の専門知識と反復的チューニングに依存しており、新しいMOPに遭遇する際に革新を妨げる可能性がある。
ごく最近、LLM(Large Language Models)の出現は、プログラムの自律的開発と洗練を可能にすることによって、ソフトウェア工学に革命をもたらした。
この進歩を活かして,多種多様なMOPに対応するために設計された,EA演算子を進化させる新しいLCMベースのフレームワークを提案する。
このフレームワークは、専門家の介入を必要とせず、EAオペレータの生産を容易にし、設計プロセスを合理化します。
提案手法の有効性を検証するため,MOPの様々なカテゴリにまたがる広範な実証実験を行った。
その結果, LLM を進化させた演算子の堅牢性と優れた性能が示された。
関連論文リスト
- Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では,FEMモジュールと事前学習LLMを統合する新しい手法を提案する。
FEMモジュールはそれぞれの設計を評価し、重要なフィードバックを提供し、LLMにドメイン固有のトレーニングを必要とせずに継続的に学習し、計画し、生成し、設計を最適化するよう指示する。
その結果, LLMをベースとしたエージェントは, 自然言語仕様に準拠したトラスを最大90%の確率で生成できることがわかった。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Model Composition for Multimodal Large Language Models [73.70317850267149]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - Evolutionary Multi-Objective Optimization of Large Language Model
Prompts for Balancing Sentiments [0.0]
EMO-Promptsと呼ばれる迅速な最適化に適した進化的多目的(EMO)アプローチを提案する。
EMO-Prompts は,2つの矛盾する感情を同時に表わしたテキストを生成するために LLM を誘導できるプロンプトを効果的に生成することを示した。
論文 参考訳(メタデータ) (2024-01-18T10:21:15Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Omni-SMoLA: Boosting Generalist Multimodal Models with Soft Mixture of Low-rank Experts [74.40198929049959]
大規模マルチモーダルモデル (LMM) は多くのタスクにまたがって優れた性能を示す。
ジェネラリストのLMMは、タスクの集合をチューニングする際に、しばしばパフォーマンスの劣化に悩まされる。
我々は,Omni-SMoLAを提案する。Omni-SMoLAはSoft MoEアプローチを用いて,多くのマルチモーダルな低ランクの専門家を混在させるアーキテクチャである。
論文 参考訳(メタデータ) (2023-12-01T23:04:27Z) - Large Language Model for Multi-objective Evolutionary Optimization [26.44390674048544]
多目的進化アルゴリズム(MOEA)は多目的最適化問題(MOP)を解決する主要な方法である
近年、MOEAにおいて手作業で設計された演算子を学習ベースの演算子に置き換える試みが試みられている。
本研究は,MOEA演算子の設計に強力な大規模言語モデル(LLM)を活用する新しいアプローチについて検討する。
論文 参考訳(メタデータ) (2023-10-19T07:46:54Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - A Survey on Learnable Evolutionary Algorithms for Scalable
Multiobjective Optimization [0.0]
多目的進化アルゴリズム(MOEA)は、様々な多目的最適化問題(MOP)を解決するために採用されている。
しかし、これらの進歩的に改善されたMOEAは、必ずしも高度にスケーラブルで学習可能な問題解決戦略を備えていない。
異なるシナリオの下では、効果的に解決するための新しい強力なMOEAを設計する必要がある。
MOPをスケールアップするための機械学習技術で自身を操る学習可能なMOEAの研究は、進化計算の分野で広く注目を集めている。
論文 参考訳(メタデータ) (2022-06-23T08:16:01Z) - Decomposition Multi-Objective Evolutionary Optimization: From
State-of-the-Art to Future Opportunities [5.760976250387322]
本報告では,MOEA/Dの原点から現状への展開について概説する。
MOEA/Dの選定された主要な開発は、そのコア設計コンポーネントに従ってレビューされる。
今後の発展に向けて、新たな方向性に光を当てた。
論文 参考訳(メタデータ) (2021-08-21T22:21:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。