論文の概要: Offline Multi-Objective Optimization
- arxiv url: http://arxiv.org/abs/2406.03722v1
- Date: Thu, 6 Jun 2024 03:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 18:25:49.950300
- Title: Offline Multi-Objective Optimization
- Title(参考訳): オフライン多目的最適化
- Authors: Ke Xue, Rong-Xi Tan, Xiaobin Huang, Chao Qian,
- Abstract要約: オフライン最適化は、静的データセットでブラックボックスの目的関数を最大化し、幅広いアプリケーションを持つことを目的としている。
我々はオフラインMOOのための最初のベンチマークを提案し、合成タスクから実世界のタスクまで幅広い問題をカバーしている。
実験の結果、トレーニングセットの最高の値よりも改善され、オフラインMOO手法の有効性が示された。
- 参考スコア(独自算出の注目度): 23.543056729281695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Offline optimization aims to maximize a black-box objective function with a static dataset and has wide applications. In addition to the objective function being black-box and expensive to evaluate, numerous complex real-world problems entail optimizing multiple conflicting objectives, i.e., multi-objective optimization (MOO). Nevertheless, offline MOO has not progressed as much as offline single-objective optimization (SOO), mainly due to the lack of benchmarks like Design-Bench for SOO. To bridge this gap, we propose a first benchmark for offline MOO, covering a range of problems from synthetic to real-world tasks. This benchmark provides tasks, datasets, and open-source examples, which can serve as a foundation for method comparisons and advancements in offline MOO. Furthermore, we analyze how the current related methods can be adapted to offline MOO from four fundamental perspectives, including data, model architecture, learning algorithm, and search algorithm. Empirical results show improvements over the best value of the training set, demonstrating the effectiveness of offline MOO methods. As no particular method stands out significantly, there is still an open challenge in further enhancing the effectiveness of offline MOO. We finally discuss future challenges for offline MOO, with the hope of shedding some light on this emerging field. Our code is available at \url{https://github.com/lamda-bbo/offline-moo}.
- Abstract(参考訳): オフライン最適化は、静的データセットでブラックボックスの目的関数を最大化し、幅広いアプリケーションを持つことを目的としている。
目的関数はブラックボックスで評価に費用がかかるが、多くの複雑な現実世界の問題は複数の矛盾する目的、すなわち多目的最適化(MOO)を最適化する。
それでもオフラインMOOは、主にDesign-Bench for SOOのようなベンチマークがないため、オフライン単目的最適化(SOO)ほど進歩していない。
このギャップを埋めるために、我々はオフラインMOOのための最初のベンチマークを提案し、合成タスクから実世界のタスクまで幅広い問題をカバーしている。
このベンチマークでは、タスク、データセット、オープンソースの例が提供され、オフラインMOOにおけるメソッド比較と進歩の基礎として機能する。
さらに、データ、モデルアーキテクチャ、学習アルゴリズム、探索アルゴリズムを含む4つの基本的視点から、現在の関連手法をオフラインMOOに適合させる方法について分析する。
実験の結果、トレーニングセットの最高の値よりも改善され、オフラインMOO手法の有効性が示された。
特に顕著な方法が存在しないため、オフラインMOOの有効性をさらに向上させるには、依然としてオープンな課題がある。
オフラインMOOの今後の課題について、この新興分野に光を当てることを願って論じる。
私たちのコードは \url{https://github.com/lamda-bbo/offline-moo} で利用可能です。
関連論文リスト
- Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Offline Model-Based Optimization via Policy-Guided Gradient Search [30.87992788876113]
オフライン強化学習問題として再構成することで、オフライン最適化のための新しい学習-探索-勾配の視点を導入する。
提案手法は,オフラインデータから生成されたサロゲートモデルに対して,適切なポリシーを明示的に学習する。
論文 参考訳(メタデータ) (2024-05-08T18:27:37Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Large-Batch, Iteration-Efficient Neural Bayesian Design Optimization [37.339567743948955]
本稿では,BOの限界に対処するための新しいベイズ最適化フレームワークを提案する。
我々の重要な貢献は、高度にスケーラブルでサンプルベースの取得機能であり、非支配的な目的のソートを実行する。
我々は,ベイズ型ニューラルネットワークサロゲートと組み合わせることで,最小限の反復数でデータ集約環境に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T19:10:57Z) - PASTA: Pessimistic Assortment Optimization [25.51792135903357]
オフラインデータ駆動環境でのアソシエーション最適化のクラスについて検討する。
本稿では,悲観主義の原理に基づくPASTA(Pessimistic Assortment opTimizAtion)と呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T01:11:51Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - Design-Bench: Benchmarks for Data-Driven Offline Model-Based
Optimization [82.02008764719896]
ブラックボックスモデルに基づく最適化問題は、タンパク質、DNA配列、航空機、ロボットの設計など、幅広い領域で広く使われている。
本稿では,統合評価プロトコルと最近の手法の参照実装を備えたオフラインMBOのためのベンチマークであるDesign-Benchを提案する。
私たちのベンチマークには、生物学、材料科学、ロボット工学における現実世界の最適化問題から派生した、多種多様な現実的なタスクが含まれています。
論文 参考訳(メタデータ) (2022-02-17T05:33:27Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Offline Meta-Reinforcement Learning with Advantage Weighting [125.21298190780259]
本稿では,オフラインメタ強化学習(オフラインメタRL)問題設定を導入し,この設定でよく機能するアルゴリズムを提案する。
オフラインメタRLは、修正済みデータの大規模なバッチ上でモデルを事前学習する、広く成功した教師付き学習戦略に類似している。
本稿では,メタトレーニングの内ループと外ループの両方に対して,シンプルかつ教師付き回帰目標を用いた最適化に基づくメタ学習アルゴリズムである,アドバンテージ重み付きメタアクタ批判(MACAW)を提案する。
論文 参考訳(メタデータ) (2020-08-13T17:57:14Z) - DeepCO: Offline Combinatorial Optimization Framework Utilizing Deep
Learning [1.2183405753834562]
ディープラーニングを利用したオフライン最適化フレームワークDeepCOを提案する。
また,倉庫運用順序最適化問題をモデル化するために,TSP(Travelling Salesman Problem)のオフライン変動を設計する。
限られた履歴データのみで、新しい分布正規化最適化は、経路長を平均5.7%削減するオフライン実験において、既存のベースライン法より優れている。
論文 参考訳(メタデータ) (2020-07-20T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。