論文の概要: Efficiently Tackling Million-Dimensional Multiobjective Problems: A Direction Sampling and Fine-Tuning Approach
- arxiv url: http://arxiv.org/abs/2304.04067v2
- Date: Mon, 8 Apr 2024 03:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 05:36:49.798330
- Title: Efficiently Tackling Million-Dimensional Multiobjective Problems: A Direction Sampling and Fine-Tuning Approach
- Title(参考訳): 数百万次元多目的問題に効果的に取り組む:方向サンプリングと微調整アプローチ
- Authors: Haokai Hong, Min Jiang, Qiuzhen Lin, Kay Chen Tan,
- Abstract要約: 我々は,超大規模多目的最適化問題を,10万以上の決定変数を持つ多重目的量 (VLSMOP) の最適化として定義する。
超大規模多目的最適化フレームワーク(VMOF)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 21.20603338339053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We define very large-scale multiobjective optimization problems as optimizing multiple objectives (VLSMOPs) with more than 100,000 decision variables. These problems hold substantial significance, given the ubiquity of real-world scenarios necessitating the optimization of hundreds of thousands, if not millions, of variables. However, the larger dimension in VLSMOPs intensifies the curse of dimensionality and poses significant challenges for existing large-scale evolutionary multiobjective algorithms, rendering them more difficult to solve within the constraints of practical computing resources. To overcome this issue, we propose a novel approach called the very large-scale multiobjective optimization framework (VMOF). The method efficiently samples general yet suitable evolutionary directions in the very large-scale space and subsequently fine-tunes these directions to locate the Pareto-optimal solutions. To sample the most suitable evolutionary directions for different solutions, Thompson sampling is adopted for its effectiveness in recommending from a very large number of items within limited historical evaluations. Furthermore, a technique is designed for fine-tuning directions specific to tracking Pareto-optimal solutions. To understand the designed framework, we present our analysis of the framework and then evaluate VMOF using widely recognized benchmarks and real-world problems spanning dimensions from 100 to 1,000,000. Experimental results demonstrate that our method exhibits superior performance not only on LSMOPs but also on VLSMOPs when compared to existing algorithms.
- Abstract(参考訳): 我々は,超大規模多目的最適化問題を,10万以上の決定変数を持つ多重目的量 (VLSMOP) の最適化として定義する。
これらの問題は、現実のシナリオが多様であることを考えると、数十万の変数を最適化する必要があるため、かなり重要な問題である。
しかしながら、VLSMOPのより大きな次元は次元の呪いを増し、既存の大規模進化的多目的アルゴリズムに重大な課題をもたらし、実用的な計算資源の制約の中でそれらを解決するのがより困難になる。
この問題を解決するために,超大規模多目的最適化フレームワーク(VMOF)を提案する。
この方法は、非常に大規模な空間において、一般的なが適切な進化方向を効率的にサンプリングし、その後、これらの方向を微調整して、パレート最適解を見つける。
異なる解に対する最も適切な進化方向をサンプリングするために、トンプソンサンプリングは、限られた歴史的評価において非常に多くの項目から推奨する効果のために採用されている。
さらに、パレート最適解を追跡するための微調整方向を設計する。
設計したフレームワークを理解するために,フレームワークの分析を行い,広く認識されているベンチマークと100から1000,000の次元にまたがる実世界の問題を用いてVMOFを評価する。
実験により,本手法はLSMOPだけでなく,既存のアルゴリズムと比較してVLSMOPにも優れた性能を示すことが示された。
関連論文リスト
- Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Smooth Tchebycheff Scalarization for Multi-Objective Optimization [15.047246588148495]
多目的最適化問題は、目的が相反することが多く、単一のソリューションでは最適化できない、多くの実世界のアプリケーションで見られる。
勾配に基づく多目的最適化のための軽量で効率的なスムーズなTchebycheffスキャラライズ手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T12:03:05Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Multi-objective optimization via equivariant deep hypervolume
approximation [3.069335774032178]
深層ニューラルネットワークを用いて超体積関数を近似する方法を示す。
提案手法は,精度,計算時間,一般化の観点から,高精度で近似的な超体積法に対して評価する。
論文 参考訳(メタデータ) (2022-10-05T12:07:13Z) - Balancing Exploration and Exploitation for Solving Large-scale
Multiobjective Optimization via Attention Mechanism [18.852491892952514]
注意機構に基づく大規模多目的最適化アルゴリズム(LMOAM)を提案する。
注意機構は、各決定変数に固有の重みを割り当て、LMOAMは、この重みを使って、決定変数レベルからの探索とエクスプロイトのバランスを取る。
論文 参考訳(メタデータ) (2022-05-20T09:45:49Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Solving Large-Scale Multi-Objective Optimization via Probabilistic
Prediction Model [10.916384208006157]
効率的なLSMOPアルゴリズムは、巨大な検索空間から局所最適解を逃れる能力を持つべきである。
人口の多様性を維持することは、探索効率を向上させる効果的な方法の1つである。
LSMOP に取り組むために,トレンド予測モデルと LT-PPM と呼ばれる生成フィルタ戦略に基づく確率的予測モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T09:43:35Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Manifold Interpolation for Large-Scale Multi-Objective Optimization via
Generative Adversarial Networks [12.18471608552718]
大規模多目的最適化問題(LSMOP)は、数百から数千の決定変数と複数の矛盾する目的を含むことを特徴とする。
これまでの研究では、これらの最適解は低次元空間の多様体構造に一様に分布していることが示されている。
本研究では, 生成逆数ネットワーク(GAN)に基づく多様体フレームワークを提案し, 多様体を学習し, 高品質な解を生成する。
論文 参考訳(メタデータ) (2021-01-08T09:38:38Z) - Follow the bisector: a simple method for multi-objective optimization [65.83318707752385]
複数の異なる損失を最小化しなければならない最適化問題を考える。
提案手法は、各イテレーションにおける降下方向を計算し、目的関数の相対的減少を等しく保証する。
論文 参考訳(メタデータ) (2020-07-14T09:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。