論文の概要: One Step Preference Elicitation in Multi-Objective Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2105.13278v1
- Date: Thu, 27 May 2021 16:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:15:12.676092
- Title: One Step Preference Elicitation in Multi-Objective Bayesian Optimization
- Title(参考訳): 多目的ベイズ最適化における一段階選好
- Authors: Juan Ungredda, Mariapia Marchi, Teresa Montrone and Juergen Branke
- Abstract要約: 評価に費用がかかる目的関数を持つ多目的最適化問題を考察する。
DMの未知の嗜好による真の最良の解は、見いだされた非支配的な解の小さなセットに含まれないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a multi-objective optimization problem with objective functions
that are expensive to evaluate. The decision maker (DM) has unknown
preferences, and so the standard approach is to generate an approximation of
the Pareto front and let the DM choose from the generated non-dominated
designs. However, especially for expensive to evaluate problems where the
number of designs that can be evaluated is very limited, the true best solution
according to the DM's unknown preferences is unlikely to be among the small set
of non-dominated solutions found, even if these solutions are truly Pareto
optimal. We address this issue by using a multi-objective Bayesian optimization
algorithm and allowing the DM to select a preferred solution from a predicted
continuous Pareto front just once before the end of the algorithm rather than
selecting a solution after the end. This allows the algorithm to understand the
DM's preferences and make a final attempt to identify a more preferred
solution. We demonstrate the idea using ParEGO, and show empirically that the
found solutions are significantly better in terms of true DM preferences than
if the DM would simply pick a solution at the end.
- Abstract(参考訳): 評価に費用がかかる目的関数を持つ多目的最適化問題を考察する。
意思決定者(DM)は好ましくないため、標準的なアプローチはParetoフロントの近似を生成し、DMが生成した非支配的な設計から選択させることである。
しかし、特に評価可能な設計数が非常に限られている問題を評価するために、DMの未知の選好による真の最良の解は、たとえこれらの解が真にパレート最適であるとしても、見いだされる非支配解の小さなセットに含まれない。
我々は,多目的ベイズ最適化アルゴリズムを用いて,dmがアルゴリズムの終了直前の1回だけ,予測された連続パレートフロントから望ましい解を選択できるようにすることでこの問題に対処した。
これにより、アルゴリズムはdmの好みを理解し、より望ましいソリューションを特定する最後の試みを行うことができる。
我々はparegoを用いてそのアイデアを実証し、dmが最終的に単にソリューションを選ぶよりも、真のdmの好みの方がはるかに優れていることを実証的に示します。
関連論文リスト
- Learning Multiple Initial Solutions to Optimization Problems [52.9380464408756]
厳密なランタイム制約の下で、同様の最適化問題を順次解決することは、多くのアプリケーションにとって不可欠である。
本稿では,問題インスタンスを定義するパラメータが与えられた初期解を多種多様に予測する学習を提案する。
提案手法は,すべての評価設定において有意かつ一貫した改善を実現し,必要な初期解の数に応じて効率よくスケールできることを実証した。
論文 参考訳(メタデータ) (2024-11-04T15:17:19Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - Preference-Optimized Pareto Set Learning for Blackbox Optimization [1.9628841617148691]
すべての目的を同時に最適化できる単一のソリューションはありません。
典型的なMOO問題では、目的間の好みを交換する最適解(パレート集合)を見つけることが目的である。
我々の定式化は、例えば微分可能なクロスエントロピー法によって解決できる二段階最適化問題につながる。
論文 参考訳(メタデータ) (2024-08-19T13:23:07Z) - mDPO: Conditional Preference Optimization for Multimodal Large Language Models [52.607764280030196]
直接選好最適化(DPO)は,大規模言語モデル(LLM)のアライメントに有効な手法であることが示されている。
最近の研究は、DPOをマルチモーダルシナリオに適用しようと試みているが、一貫した改善を達成することは困難である。
画像の嗜好を最適化することで、言語のみの嗜好の過度な優先順位付けを防止するマルチモーダルDPOであるmDPOを提案する。
論文 参考訳(メタデータ) (2024-06-17T17:59:58Z) - Data-Efficient Interactive Multi-Objective Optimization Using ParEGO [6.042269506496206]
多目的最適化は、競合する目的間の最適なトレードオフを提供する非支配的なソリューションの集合を特定することを目的としている。
実践的な応用では、意思決定者(DM)は実装すべき好みに合わせて単一のソリューションを選択する。
そこで本稿では,パレートフロントの最も好まれる領域を,高コストで評価できる2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-12T15:55:51Z) - Multi-Objective Bayesian Optimization with Active Preference Learning [18.066263838953223]
本稿では,多目的最適化 (MOO) 問題において最も望ましい解を特定するためのベイズ最適化 (BO) 手法を提案する。
また、意思決定者(DM)との相互作用コストを最小限に抑えるため、選好推定のためのアクティブラーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-11-22T15:24:36Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Solution Subset Selection for Final Decision Making in Evolutionary
Multi-Objective Optimization [7.745468825770201]
最終的な意思決定の観点から,サブセットの選択について論じる。
定式化関数はIGD+インジケータと同じであることを示す。
論文 参考訳(メタデータ) (2020-06-15T06:26:58Z) - Ensuring smoothly navigable approximation sets by Bezier curve
parameterizations in evolutionary bi-objective optimization -- applied to
brachytherapy treatment planning for prostate cancer [0.0]
決定空間における滑らかなベジエ曲線として近似集合をパラメータ化する場合について検討する。
高品質な近似集合をBezEAで得ることができ、時には支配とUHVに基づくアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-11T13:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。