論文の概要: Large Language Models to Enhance Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2402.03921v2
- Date: Fri, 8 Mar 2024 12:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:33:37.175081
- Title: Large Language Models to Enhance Bayesian Optimization
- Title(参考訳): ベイズ最適化を支援する大規模言語モデル
- Authors: Tennison Liu and Nicol\'as Astorga and Nabeel Seedat and Mihaela van
der Schaar
- Abstract要約: 本稿では,大規模言語モデル(LLM)の能力をベイズ最適化に組み込む新しいアプローチであるLLAMBOを提案する。
高いレベルでは、自然言語のBO問題を枠組み化し、LLMが歴史的評価に照らした有望な解を反復的に提案し、評価することを可能にする。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
- 参考スコア(独自算出の注目度): 57.474613739645605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization (BO) is a powerful approach for optimizing complex and
expensive-to-evaluate black-box functions. Its importance is underscored in
many applications, notably including hyperparameter tuning, but its efficacy
depends on efficiently balancing exploration and exploitation. While there has
been substantial progress in BO methods, striking this balance remains a
delicate process. In this light, we present LLAMBO, a novel approach that
integrates the capabilities of Large Language Models (LLM) within BO. At a high
level, we frame the BO problem in natural language, enabling LLMs to
iteratively propose and evaluate promising solutions conditioned on historical
evaluations. More specifically, we explore how combining contextual
understanding, few-shot learning proficiency, and domain knowledge of LLMs can
improve model-based BO. Our findings illustrate that LLAMBO is effective at
zero-shot warmstarting, and enhances surrogate modeling and candidate sampling,
especially in the early stages of search when observations are sparse. Our
approach is performed in context and does not require LLM finetuning.
Additionally, it is modular by design, allowing individual components to be
integrated into existing BO frameworks, or function cohesively as an end-to-end
method. We empirically validate LLAMBO's efficacy on the problem of
hyperparameter tuning, highlighting strong empirical performance across a range
of diverse benchmarks, proprietary, and synthetic tasks.
- Abstract(参考訳): ベイズ最適化(BO)は、複雑で高価なブラックボックス関数を最適化するための強力なアプローチである。
その重要性は、特にハイパーパラメータチューニングを含む多くのアプリケーションで強調されているが、その効果は探索と搾取の効率的なバランスに依存する。
BO法にはかなりの進歩があったが、このバランスを打つことは微妙なプロセスである。
本稿では,Large Language Models (LLM) の機能を統合する新しいアプローチであるLLAMBOを提案する。
高レベルでは、自然言語でbo問題をフレーム化することで、llmが歴史的評価に基づく有望なソリューションを反復的に提案し、評価することができる。
より具体的には、文脈理解、少ない学習能力、llmのドメイン知識を組み合わせることで、モデルベースのboがいかに改善されるかを検討する。
以上の結果から,LLAMBOはゼロショットウォームスタートに有効であり,サロゲートモデリングや候補サンプリングの促進,特に観察が不十分な場合の探索の初期段階において有効であることが示唆された。
我々のアプローチは文脈で実行され、llmの微調整は不要です。
さらに、それは設計によってモジュール化されており、個々のコンポーネントを既存のBOフレームワークに統合できる。
LLAMBOのハイパーパラメータチューニング問題に対する有効性を実証的に検証し、多様なベンチマーク、プロプライエタリ、合成タスクにまたがる強力な経験的性能を強調した。
関連論文リスト
- Reinforced In-Context Black-Box Optimization [67.02295929937829]
RIBBOは、オフラインデータからエンドツーエンドでBBOアルゴリズムを強化学習する手法である。
RIBBOは、複数の動作アルゴリズムとタスクによって生成された最適化履歴を学習するために、表現的なシーケンスモデルを使用している。
提案手法の中心となるのは,履歴の累積的後悔に基づくアルゴリズムの性能を表現するために,後悔から後悔へのトークンで最適化履歴を増大させることである。
論文 参考訳(メタデータ) (2024-02-27T11:32:14Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Entropy-Regularized Token-Level Policy Optimization for Large Language
Models [76.02428537504323]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
その結果,ETPO は CodeLlama-7B モデルで有効な性能向上を実現し,RLHF から受け継いだ変種 PPO ベースラインを超越していることがわかった。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - MoE-LLaVA: Mixture of Experts for Large Vision-Language Models [29.234931173107825]
本稿では,LVLMのための簡易かつ効果的なトレーニング戦略であるMoE-Tuningを提案する。
MoE-LLaVAはMoEベースのスパースLVLMアーキテクチャであり、ルータを通じてトップkの専門家のみをユニークに活性化する。
様々な視覚的理解と物体幻覚のベンチマークにおいて,MoE-LLaVAの顕著な性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-01-29T08:13:40Z) - CoLLiE: Collaborative Training of Large Language Models in an Efficient
Way [59.09824823710863]
CoLLiEは、大規模な言語モデルの協調トレーニングを容易にする効率的なライブラリである。
モジュール設計と包括的な機能により、CoLLiEは効率性、使いやすさ、カスタマイズのバランスのとれたブレンドを提供する。
論文 参考訳(メタデータ) (2023-12-01T08:02:16Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate
ranks [49.85896045032822]
非支配解と最高多変量階との自然な関係を示し、これは合同累積分布関数(CDF)の最外層線と一致する。
我々はCDFインジケータに基づくBOtiedと呼ばれる取得関数を提案する。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - High-Dimensional Bayesian Optimization with Sparse Axis-Aligned
Subspaces [14.03847432040056]
スパース軸整列部分空間上で定義される代理モデルは、柔軟性とパーシモニーの間に魅力的な妥協をもたらすと我々は主張する。
提案手法は,ハミルトニアンモンテカルロを推論に用い,未知の目的関数のモデル化に関連するスパース部分空間を迅速に同定できることを実証する。
論文 参考訳(メタデータ) (2021-02-27T23:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。