論文の概要: Conflict-Averse Gradient Optimization of Ensembles for Effective Offline
Model-Based Optimization
- arxiv url: http://arxiv.org/abs/2303.17934v1
- Date: Fri, 31 Mar 2023 10:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:32:21.074470
- Title: Conflict-Averse Gradient Optimization of Ensembles for Effective Offline
Model-Based Optimization
- Title(参考訳): オフラインモデルに基づく最適化のためのアンサンブルのコンフリクト逆勾配最適化
- Authors: Sathvik Kolli
- Abstract要約: 我々は、多重勾配降下アルゴリズム(MGDA)と競合逆勾配降下アルゴリズム(CAGrad)の2つの勾配情報を組み合わせたアルゴリズムを評価する。
以上の結果から,MGDAとCAGradは保存性と最適性の間に望ましいバランスを保ち,設計の最適性を損なうことなく,データ駆動型オフラインMBOの堅牢化に寄与することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven offline model-based optimization (MBO) is an established
practical approach to black-box computational design problems for which the
true objective function is unknown and expensive to query. However, the
standard approach which optimizes designs against a learned proxy model of the
ground truth objective can suffer from distributional shift. Specifically, in
high-dimensional design spaces where valid designs lie on a narrow manifold,
the standard approach is susceptible to producing out-of-distribution, invalid
designs that "fool" the learned proxy model into outputting a high value. Using
an ensemble rather than a single model as the learned proxy can help mitigate
distribution shift, but naive formulations for combining gradient information
from the ensemble, such as minimum or mean gradient, are still suboptimal and
often hampered by non-convergent behavior.
In this work, we explore alternate approaches for combining gradient
information from the ensemble that are robust to distribution shift without
compromising optimality of the produced designs. More specifically, we explore
two functions, formulated as convex optimization problems, for combining
gradient information: multiple gradient descent algorithm (MGDA) and
conflict-averse gradient descent (CAGrad). We evaluate these algorithms on a
diverse set of five computational design tasks. We compare performance of
ensemble MBO with MGDA and ensemble MBO with CAGrad with three naive baseline
algorithms: (a) standard single-model MBO, (b) ensemble MBO with mean gradient,
and (c) ensemble MBO with minimum gradient.
Our results suggest that MGDA and CAGrad strike a desirable balance between
conservatism and optimality and can help robustify data-driven offline MBO
without compromising optimality of designs.
- Abstract(参考訳): データ駆動型オフラインモデルベース最適化(mbo)は、真の目的関数が未知でクエリが高価であるブラックボックス計算設計問題に対して確立された実用的なアプローチである。
しかし、学習した真理目標のプロキシモデルに対して設計を最適化する標準的なアプローチは、分散シフトに悩まされる可能性がある。
特に、有効な設計が狭い多様体上に存在する高次元設計空間において、標準的アプローチは、学習されたプロキシモデルを「供給」して高値を出力する無効な設計を発生させることに影響を受けやすい。
学習されたプロキシとして単一モデルではなくアンサンブルを使用することは分布シフトを緩和するが、最小勾配や平均勾配といったアンサンブルからの勾配情報を結合するためのナイーブな定式化は依然として最適であり、しばしば非収束的な振る舞いによって阻害される。
本研究では,生成した設計の最適性を損なうことなく,分布シフトに頑健なアンサンブルからの勾配情報を組み合わせるための代替手法を検討する。
より具体的には、多重勾配降下アルゴリズム (mgda) とコンフリクト逆勾配降下 (cagrad) の2つの勾配情報を結合するための凸最適化問題として定式化した関数を探索する。
これらのアルゴリズムを5つの計算設計タスクで評価した。
アンサンブルMBOとMGDAとアンサンブルMBOとCAGradとを3つの素数ベースラインアルゴリズムで比較する。
(a)標準シングルモデルmbo
(b)平均勾配のアンサンブルMBO、及び
(c)最小勾配のアンサンブルMBO。
その結果,mgda と cagrad は保存性と最適性のバランスを保ち,設計の最適性を損なうことなくデータ駆動型オフライン mbo の堅牢化に寄与することが示唆された。
関連論文リスト
- Offline Model-Based Optimization by Learning to Rank [26.21886715050762]
我々は、平均二乗誤差(MSE)で訓練された回帰モデルは、オフラインモデルに基づく最適化の第一目標とうまく一致していないと論じる。
そこで本稿では,学習手法のランク付けに活用し,相対的なスコアに基づいて有望な設計を優先順位付けするランキングベースモデルを提案する。
論文 参考訳(メタデータ) (2024-10-15T11:15:03Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - ROMO: Retrieval-enhanced Offline Model-based Optimization [14.277672372460785]
データ駆動型ブラックボックスモデルベース最適化(MBO)の問題は、多くの実用的なアプリケーションシナリオで発生します。
検索強化オフラインモデルベース最適化(ROMO)を提案する。
ROMOは実装が簡単で、CoMBO設定における最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2023-10-11T15:04:33Z) - Model-based Causal Bayesian Optimization [78.120734120667]
モデルに基づく因果ベイズ最適化(MCBO)を提案する。
MCBOは介入と逆のペアをモデリングするのではなく、完全なシステムモデルを学ぶ。
標準的なベイズ最適化とは異なり、我々の取得関数は閉形式では評価できない。
論文 参考訳(メタデータ) (2022-11-18T14:28:21Z) - Spike-and-Slab Generalized Additive Models and Scalable Algorithms for
High-Dimensional Data [0.0]
本稿では,高次元データに対応するため,階層型一般化加法モデル(GAM)を提案する。
曲線の適切な縮退と滑らか化関数線型空間と非線形空間の分離に対する平滑化ペナルティを考察する。
2つの決定論的アルゴリズム、EM-Coordinate Descent と EM-Iterative Weighted Least Squares は異なるユーティリティ向けに開発された。
論文 参考訳(メタデータ) (2021-10-27T14:11:13Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。