論文の概要: High-Dimensional Bayesian Optimization with Constraints: Application to
Powder Weighing
- arxiv url: http://arxiv.org/abs/2206.05988v1
- Date: Mon, 13 Jun 2022 09:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 16:28:39.001521
- Title: High-Dimensional Bayesian Optimization with Constraints: Application to
Powder Weighing
- Title(参考訳): 制約付き高次元ベイズ最適化:粉体重み付けへの応用
- Authors: Shoki Miyagawa, Atsuyoshi Yano, Naoko Sawada and Isamu Ogawa
- Abstract要約: 非線形埋め込みに不整合表現学習を導入することでパラメータ分解を組み合わせることを提案する。
実験結果に基づいて,提案手法は制約を考慮し,約66%の試行回数削減に寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization works effectively optimizing parameters in black-box
problems. However, this method did not work for high-dimensional parameters in
limited trials. Parameters can be efficiently explored by nonlinearly embedding
them into a low-dimensional space; however, the constraints cannot be
considered. We proposed combining parameter decomposition by introducing
disentangled representation learning into nonlinear embedding to consider both
known equality and unknown inequality constraints in high-dimensional Bayesian
optimization. We applied the proposed method to a powder weighing task as a
usage scenario. Based on the experimental results, the proposed method
considers the constraints and contributes to reducing the number of trials by
approximately 66% compared to manual parameter tuning.
- Abstract(参考訳): ベイズ最適化はブラックボックス問題のパラメータを効果的に最適化する。
しかし,この手法は限定試行において高次元パラメータには有効ではなかった。
パラメータは非線形に低次元空間に埋め込むことで効率的に探索することができるが、制約は考慮できない。
高次元ベイズ最適化において既知の等式と未知不等式制約の両方を考慮するため,非線形埋め込みに不等角表現学習を導入することでパラメータ分解を組み合わせることを提案した。
提案手法を使用シナリオとしてパウダー重み付け作業に適用した。
提案手法は,実験結果に基づいて制約を考慮し,手動パラメータチューニングと比較して約66%の試行回数削減に寄与する。
関連論文リスト
- Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - How Free is Parameter-Free Stochastic Optimization? [29.174036532175855]
パラメータフリー最適化の問題について検討し、パラメータフリーな手法が存在するかどうかを問う。
既存の手法は、真の問題パラメータに関するいくつかの非自明な知識を必要とするため、部分的にはパラメータフリーとみなすことができる。
単純なハイパーサーチ手法により、より洗練された最先端アルゴリズムより優れたパラメータフリーな手法が実現できることを実証する。
論文 参考訳(メタデータ) (2024-02-05T15:51:49Z) - Multi-fidelity Constrained Optimization for Stochastic Black Box
Simulators [1.6385815610837167]
上記の問題に対処するために、Scout-Nd (Stochastic Constrained Optimization for N dimensions) アルゴリズムを導入する。
Scout-Ndは効率よく勾配を推定し、推定器勾配のノイズを低減し、計算労力をさらに削減するために多重忠実性スキームを適用する。
提案手法を標準ベンチマークで検証し,既存の手法よりも優れた性能を示すパラメータの最適化の有効性を示す。
論文 参考訳(メタデータ) (2023-11-25T23:36:38Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Online Hyperparameter Meta-Learning with Hypergradient Distillation [59.973770725729636]
勾配に基づくメタラーニング法は、内部最適化に関与しないパラメータのセットを仮定する。
知識蒸留による2次項の近似により,これらの限界を克服できる新しいHO法を提案する。
論文 参考訳(メタデータ) (2021-10-06T05:14:53Z) - Implicit Rate-Constrained Optimization of Non-decomposable Objectives [37.43791617018009]
機械学習における制約付き最適化問題の一家系を考察する。
我々のキーとなる考え方は、閾値パラメータをモデルパラメータの関数として表現するレート制約のある最適化を定式化することである。
本稿では, 標準勾配法を用いて, 結果の最適化問題を解く方法を示す。
論文 参考訳(メタデータ) (2021-07-23T00:04:39Z) - Efficient hyperparameter optimization by way of PAC-Bayes bound
minimization [4.191847852775072]
本稿では,期待外誤差に縛られた確率的近似ベイズ(PAC-Bayes)と等価な別の目的について述べる。
そして、この目的を最小化するために、効率的な勾配に基づくアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-08-14T15:54:51Z) - Online Hyperparameter Search Interleaved with Proximal Parameter Updates [9.543667840503739]
本研究では,近似勾配法の構造に依存する手法を開発し,スムーズなコスト関数を必要としない。
そのような方法は、Leave-one-out (LOO)-validated LassoおよびGroup Lassoに適用される。
数値実験により,提案手法の収束度をLOO検証誤差曲線の局所最適値に相関させる。
論文 参考訳(メタデータ) (2020-04-06T15:54:03Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z) - Support recovery and sup-norm convergence rates for sparse pivotal
estimation [79.13844065776928]
高次元スパース回帰では、ピボット推定器は最適な正規化パラメータがノイズレベルに依存しない推定器である。
非滑らかで滑らかな単一タスクとマルチタスク正方形ラッソ型推定器に対するミニマックス超ノルム収束率を示す。
論文 参考訳(メタデータ) (2020-01-15T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。