論文の概要: Interactive Evolutionary Multi-Objective Optimization via
Learning-to-Rank
- arxiv url: http://arxiv.org/abs/2204.02604v1
- Date: Wed, 6 Apr 2022 06:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-18 03:00:10.508833
- Title: Interactive Evolutionary Multi-Objective Optimization via
Learning-to-Rank
- Title(参考訳): 階層学習による対話型進化的多目的最適化
- Authors: Ke Li, Guiyu Lai, Xin Yao
- Abstract要約: 本稿では,関心の解(SOI)を対話的に見つけるために,嗜好に基づくEMOアルゴリズムを設計するためのフレームワークを開発する。
EMOの中核となる考え方は、人間をEMOのループに巻き込むことだ。何回か繰り返すと、DMは数人の現職候補者に対してフィードバックを求めるよう招待される。
このような情報を集めることで、彼女の好みは学習からランクまでニューラルネットワークによって徐々に学習され、次にベースラインEMOアルゴリズムを導出するために応用される。
- 参考スコア(独自算出の注目度): 8.421614560290609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In practical multi-criterion decision-making, it is cumbersome if a decision
maker (DM) is asked to choose among a set of trade-off alternatives covering
the whole Pareto-optimal front. This is a paradox in conventional evolutionary
multi-objective optimization (EMO) that always aim to achieve a well balance
between convergence and diversity. In essence, the ultimate goal of
multi-objective optimization is to help a decision maker (DM) identify
solution(s) of interest (SOI) achieving satisfactory trade-offs among multiple
conflicting criteria. Bearing this in mind, this paper develops a framework for
designing preference-based EMO algorithms to find SOI in an interactive manner.
Its core idea is to involve human in the loop of EMO. After every several
iterations, the DM is invited to elicit her feedback with regard to a couple of
incumbent candidates. By collecting such information, her preference is
progressively learned by a learning-to-rank neural network and then applied to
guide the baseline EMO algorithm. Note that this framework is so general that
any existing EMO algorithm can be applied in a plug-in manner. Experiments on
$48$ benchmark test problems with up to 10 objectives fully demonstrate the
effectiveness of our proposed algorithms for finding SOI.
- Abstract(参考訳): 実用的なマルチクリエーション意思決定では、意思決定者(dm)がパレートオプティカルフロント全体をカバーする一連のトレードオフの選択肢の中から選択を依頼されるのは面倒である。
これは従来の進化的多目的最適化(EMO)におけるパラドックスであり、常に収束と多様性のバランスをとることを目的としている。
本質的に、多目的最適化の最終的な目標は、意思決定者(DM)が利害の解決(SOI)を複数の矛盾する基準の中で満足なトレードオフを達成するのを支援することである。
そこで本稿では,soiをインタラクティブに探索するための選好ベースのemoアルゴリズムを設計するためのフレームワークを開発した。
その中核となる考え方は、人間をEMOのループに巻き込むことである。
DMは、何回かのイテレーションの後、いくつかの既存の候補者に対してフィードバックを求めるよう招待される。
このような情報を集めることで、彼女の好みは学習からランクまでニューラルネットワークによって徐々に学習され、ベースラインEMOアルゴリズムのガイドに適用される。
このフレームワークは非常に一般的なので、既存のEMOアルゴリズムはプラグイン方式で適用できる。
最大10の目標を持つ48ドルのベンチマークテスト問題に対する実験により,提案アルゴリズムの有効性を実証した。
関連論文リスト
- Dynamic Detection of Relevant Objectives and Adaptation to Preference Drifts in Interactive Evolutionary Multi-Objective Optimization [2.4374097382908477]
意思決定過程を通じて進化し,目的の関連性に影響を与えるDM選好の動的性質について検討する。
このような変化が起こると、時代遅れや相反する好みを解消する手法を提案する。
実験により,提案手法は進化する嗜好を効果的に管理し,アルゴリズムが生成するソリューションの品質と望ましさを著しく向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T09:09:06Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - UCB-driven Utility Function Search for Multi-objective Reinforcement Learning [75.11267478778295]
マルチオブジェクト強化学習(MORL)エージェントでは、意思決定行動の最適化を行う。
重みベクトル w でパラメータ化される線型効用関数の場合に焦点を当てる。
学習過程の異なる段階で最も有望な重みベクトルを効率的に探索する上信頼境界に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-05-01T09:34:42Z) - Data-Efficient Interactive Multi-Objective Optimization Using ParEGO [6.042269506496206]
多目的最適化は、競合する目的間の最適なトレードオフを提供する非支配的なソリューションの集合を特定することを目的としている。
実践的な応用では、意思決定者(DM)は実装すべき好みに合わせて単一のソリューションを選択する。
そこで本稿では,パレートフロントの最も好まれる領域を,高コストで評価できる2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-12T15:55:51Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Multi-Objective GFlowNets [59.16787189214784]
本稿では,多目的最適化の文脈において,多様な候補を生成する問題について検討する。
薬物発見やマテリアルデザインといった機械学習の多くの応用において、目標は、競合する可能性のある目標のセットを同時に最適化する候補を生成することである。
GFlowNetsをベースとした多目的GFlowNets(MOGFNs)を提案する。
論文 参考訳(メタデータ) (2022-10-23T16:15:36Z) - Data-Driven Evolutionary Multi-Objective Optimization Based on
Multiple-Gradient Descent for Disconnected Pareto Fronts [6.560512252982714]
本稿では,データ駆動型進化的多目的最適化(EMO)アルゴリズムを提案する。
そのインフィル基準は、高価な客観的関数評価を行うための、有望な候補ソリューションのバッチを推奨している。
論文 参考訳(メタデータ) (2022-05-28T06:01:41Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Decomposition-Based Multi-Objective Evolutionary Algorithm Design under
Two Algorithm Frameworks [7.745468825770201]
オフラインの遺伝的アルゴリズムに基づくハイパーヒューリスティック手法を用いて,各フレームワークにおけるMOEA/Dの最適構成を求める。
実験結果から,解選択フレームワークを用いた場合,より柔軟で堅牢で高性能なMOEA/Dアルゴリズムが得られる可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-17T05:28:20Z) - Algorithm Configurations of MOEA/D with an Unbounded External Archive [7.745468825770201]
実行中に基準点仕様を線形に変更することによりMOEA/Dの性能が向上することを示す。
また、遺伝的アルゴリズムに基づくオフラインハイパーヒューリスティック手法を用いて、各フレームワークにおけるMOEA/Dの最適構成を求める。
論文 参考訳(メタデータ) (2020-07-27T08:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。