論文の概要: HV-Net: Hypervolume Approximation based on DeepSets
- arxiv url: http://arxiv.org/abs/2203.02185v1
- Date: Fri, 4 Mar 2022 08:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 03:48:25.867156
- Title: HV-Net: Hypervolume Approximation based on DeepSets
- Title(参考訳): HV-Net:DeepSetsに基づくハイパーボリューム近似
- Authors: Ke Shang and Weiyu Chen and Weiduo Liao and Hisao Ishibuchi
- Abstract要約: 進化的多目的最適化における超体積近似の新しい手法であるHV-Netを提案する。
HV-Netの入力は、対象空間に設定された非支配的解であり、出力は、この解集合の近似超体積値である。
実験の結果,HV-Netは近似誤差と実行時の両方で他の2つの手法よりも優れていた。
- 参考スコア(独自算出の注目度): 11.110675371854988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this letter, we propose HV-Net, a new method for hypervolume approximation
in evolutionary multi-objective optimization. The basic idea of HV-Net is to
use DeepSets, a deep neural network with permutation invariant property, to
approximate the hypervolume of a non-dominated solution set. The input of
HV-Net is a non-dominated solution set in the objective space, and the output
is an approximated hypervolume value of this solution set. The performance of
HV-Net is evaluated through computational experiments by comparing it with two
commonly-used hypervolume approximation methods (i.e., point-based method and
line-based method). Our experimental results show that HV-Net outperforms the
other two methods in terms of both the approximation error and the runtime,
which shows the potential of using deep learning technique for hypervolume
approximation.
- Abstract(参考訳): 本稿では,進化的多目的最適化における超体積近似法であるhv-netを提案する。
HV-Netの基本的な考え方は、置換不変性を持つディープニューラルネットワークであるDeepSetsを使用して、非支配的な解集合のハイパーボリュームを近似することである。
hv-net の入力は目的空間における非支配的な解集合であり、出力はこの解集合の近似超体積値である。
hv-netの性能は計算実験によって評価され、一般的な2つの超体積近似法(ポイントベース法とラインベース法)と比較される。
実験の結果,HV-Netは近似誤差と実行時の両方で他の2つの手法よりも優れており,超体積近似に深層学習技術を用いる可能性を示している。
関連論文リスト
- An Adaptive Dimension Reduction Estimation Method for High-dimensional
Bayesian Optimization [6.79843988450982]
BOを高次元設定に拡張するための2段階最適化フレームワークを提案する。
私たちのアルゴリズムは、これらのステップを並列またはシーケンスで操作する柔軟性を提供します。
数値実験により,困難シナリオにおける本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-03-08T16:21:08Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - Regularization and Variance-Weighted Regression Achieves Minimax
Optimality in Linear MDPs: Theory and Practice [79.48432795639403]
ミラー降下値反復(MDVI)は、KL(Kulback-Leibler)とRL(Entropy-regularized reinforcement learning)の抽象化である。
MDVIを線形関数近似を用いて研究し,$varepsilon$-optimal policyを同定するために必要なサンプル複雑性について検討した。
我々は,無限水平線形MDPに対して,最小限のサンプル複雑性を実現する最初の理論的アルゴリズムである分散重み付き最小二乗法MDVIを提案する。
論文 参考訳(メタデータ) (2023-05-22T16:13:05Z) - Optimal Approximation Complexity of High-Dimensional Functions with
Neural Networks [3.222802562733787]
本稿では、ReLUと$x2$の両方を活性化関数として使用するニューラルネットワークの特性について検討する。
いくつかの文脈において、低局所次元を利用して次元の呪いを克服し、未知の低次元部分空間に最適な近似値を得る方法を示す。
論文 参考訳(メタデータ) (2023-01-30T17:29:19Z) - Multi-objective optimization via equivariant deep hypervolume
approximation [3.069335774032178]
深層ニューラルネットワークを用いて超体積関数を近似する方法を示す。
提案手法は,精度,計算時間,一般化の観点から,高精度で近似的な超体積法に対して評価する。
論文 参考訳(メタデータ) (2022-10-05T12:07:13Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - High Dimensional Level Set Estimation with Bayesian Neural Network [58.684954492439424]
本稿では,ベイズニューラルネットワークを用いた高次元レベル集合推定問題を解く新しい手法を提案する。
各問題に対して対応する理論情報に基づく取得関数を導出してデータポイントをサンプリングする。
合成データセットと実世界データセットの数値実験により,提案手法は既存手法よりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2020-12-17T23:21:53Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Uncrowded Hypervolume-based Multi-objective Optimization with Gene-pool
Optimal Mixing [0.0]
HypervolumeベースのMO最適化は、これを克服する有望な結果を示している。
Sofomoreフレームワークは、複数のインターリーブされた単一目的の動的問題を解くことでこれを克服する。
我々は,MO-GOMEAとUHV-GOMEAを併用したハイブリッドアプローチを構築し,両者を比較検討した。
論文 参考訳(メタデータ) (2020-04-10T15:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。