論文の概要: A model aggregation approach for high-dimensional large-scale
optimization
- arxiv url: http://arxiv.org/abs/2205.07525v1
- Date: Mon, 16 May 2022 08:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:59:58.976959
- Title: A model aggregation approach for high-dimensional large-scale
optimization
- Title(参考訳): 高次元大規模最適化のためのモデル集約手法
- Authors: Haowei Wang, Ercong Zhang, Szu Hui Ng, Giulia Pedrielli
- Abstract要約: 本研究では,高次元大規模最適化問題を効率的に解くため,ベイズ最適化(MamBO)アルゴリズムにおけるモデル集約手法を提案する。
MamBOはサブサンプリングとサブスペース埋め込みを組み合わせることで、高次元と大規模問題に一括して対処する。
提案手法は,これらの低次元サロゲートモデルリスクを低減し,BOアルゴリズムのロバスト性を向上させる。
- 参考スコア(独自算出の注目度): 2.1104930506758275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization (BO) has been widely used in machine learning and
simulation optimization. With the increase in computational resources and
storage capacities in these fields, high-dimensional and large-scale problems
are becoming increasingly common. In this study, we propose a model aggregation
method in the Bayesian optimization (MamBO) algorithm for efficiently solving
high-dimensional large-scale optimization problems. MamBO uses a combination of
subsampling and subspace embeddings to collectively address high dimensionality
and large-scale issues; in addition, a model aggregation method is employed to
address the surrogate model uncertainty issue that arises when embedding is
applied. This surrogate model uncertainty issue is largely ignored in the
embedding literature and practice, and it is exacerbated when the problem is
high-dimensional and data are limited. Our proposed model aggregation method
reduces these lower-dimensional surrogate model risks and improves the
robustness of the BO algorithm. We derive an asymptotic bound for the proposed
aggregated surrogate model and prove the convergence of MamBO. Benchmark
numerical experiments indicate that our algorithm achieves superior or
comparable performance to other commonly used high-dimensional BO algorithms.
Moreover, we apply MamBO to a cascade classifier of a machine learning
algorithm for face detection, and the results reveal that MamBO finds settings
that achieve higher classification accuracy than the benchmark settings and is
computationally faster than other high-dimensional BO algorithms.
- Abstract(参考訳): ベイズ最適化(BO)は機械学習やシミュレーション最適化に広く用いられている。
これらの分野における計算資源の増大と記憶能力の増大により、高次元および大規模問題が増えつつある。
本研究では,高次元大規模最適化問題を効率的に解くため,ベイズ最適化(MamBO)アルゴリズムにおけるモデル集約手法を提案する。
mamboは、サブサンプリングとサブスペース埋め込みの組み合わせを使って、高次元と大規模の問題に集合的に対処している。
このサロゲートモデルの不確実性問題は、埋め込み文献や実践においてほとんど無視され、問題が高次元でデータに制限がある場合に悪化する。
提案手法は,これらの低次元サロゲートモデルリスクを低減し,BOアルゴリズムのロバスト性を向上させる。
我々は,提案する集合的サロゲートモデルに対する漸近境界を導出し,マンボの収束を証明する。
ベンチマーク数値実験により,本アルゴリズムは他の高次元boアルゴリズムよりも優れ,あるいは同等の性能が得られることが示された。
さらに、顔検出のための機械学習アルゴリズムのカスケード分類器にmamboを適用することにより、mamboはベンチマーク設定よりも高い分類精度を達成し、他の高次元boアルゴリズムよりも計算速度が高い設定を見出した。
関連論文リスト
- Optimizing Attention with Mirror Descent: Generalized Max-Margin Token Selection [6.759148939470332]
アルゴリズムは、$ell_p$-normの目的を持つハードマージンSVMに収束することを示す。
具体的には、これらのアルゴリズムは、$ell_p$-normの目的を持つ一般化されたハードマージンSVMに収束することを示す。
論文 参考訳(メタデータ) (2024-10-18T16:32:06Z) - Hyperparameter Estimation for Sparse Bayesian Learning Models [1.0172874946490507]
Aparse Bayesian Learning (SBL) モデルは、信号処理や機械学習において、階層的な事前処理による疎結合を促進するために広く使われている。
本稿では,種々の目的関数に対するSBLモデルの改良のためのフレームワークを提案する。
信号雑音比において, 高い効率性を示す新しいアルゴリズムが導入された。
論文 参考訳(メタデータ) (2024-01-04T21:24:01Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Algorithme EM r\'egularis\'e [0.0]
本稿では,より少ないサンプルサイズに対応するために,事前知識を効率的に活用するEMアルゴリズムの正規化バージョンを提案する。
実データを用いた実験では,クラスタリングのための提案アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-07-04T23:19:25Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Jointly Modeling and Clustering Tensors in High Dimensions [6.072664839782975]
テンソルの合同ベンチマークとクラスタリングの問題を考察する。
本稿では,統計的精度の高い近傍に幾何的に収束する効率的な高速最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-15T21:06:16Z) - High-Dimensional Bayesian Optimization with Sparse Axis-Aligned
Subspaces [14.03847432040056]
スパース軸整列部分空間上で定義される代理モデルは、柔軟性とパーシモニーの間に魅力的な妥協をもたらすと我々は主張する。
提案手法は,ハミルトニアンモンテカルロを推論に用い,未知の目的関数のモデル化に関連するスパース部分空間を迅速に同定できることを実証する。
論文 参考訳(メタデータ) (2021-02-27T23:06:24Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。