論文の概要: Learning Representation for Bayesian Optimization with Collision-free
Regularization
- arxiv url: http://arxiv.org/abs/2203.08656v1
- Date: Wed, 16 Mar 2022 14:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 13:42:54.692341
- Title: Learning Representation for Bayesian Optimization with Collision-free
Regularization
- Title(参考訳): 衝突のない正規化を伴うベイズ最適化のための学習表現
- Authors: Fengxue Zhang, Brian Nord, Yuxin Chen
- Abstract要約: 大規模、高次元、非定常的なデータセットは現実世界のシナリオでは一般的である。
最近の研究は、古典的なガウス過程に先立ってニューラルネットワークを適用して潜在表現を学習することで、そのような入力を処理しようとしている。
適切なネットワーク設計であっても、そのような学習された表現は、しばしば潜在空間における衝突を引き起こすことを示す。
本稿では,学習された潜伏空間における衝突を低減するために,新しい正則化器を用いた効率的な深度ベイズ最適化フレームワークであるLOCoを提案する。
- 参考スコア(独自算出の注目度): 13.476552258272402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization has been challenged by datasets with large-scale,
high-dimensional, and non-stationary characteristics, which are common in
real-world scenarios. Recent works attempt to handle such input by applying
neural networks ahead of the classical Gaussian process to learn a latent
representation. We show that even with proper network design, such learned
representation often leads to collision in the latent space: two points with
significantly different observations collide in the learned latent space,
leading to degraded optimization performance. To address this issue, we propose
LOCo, an efficient deep Bayesian optimization framework which employs a novel
regularizer to reduce the collision in the learned latent space and encourage
the mapping from the latent space to the objective value to be Lipschitz
continuous. LOCo takes in pairs of data points and penalizes those too close in
the latent space compared to their target space distance. We provide a rigorous
theoretical justification for LOCo by inspecting the regret of this
dynamic-embedding-based Bayesian optimization algorithm, where the neural
network is iteratively retrained with the regularizer. Our empirical results
demonstrate the effectiveness of LOCo on several synthetic and real-world
benchmark Bayesian optimization tasks.
- Abstract(参考訳): ベイズ最適化は、大規模、高次元、非定常的な特徴を持つデータセットによって挑戦されてきた。
最近の研究は、古典ガウス過程の前にニューラルネットワークを適用して潜在表現を学ぶことで、そのような入力を扱うことを試みる。
適切なネットワーク設計であっても、そのような学習された表現はしばしば潜伏空間における衝突を引き起こす: 学習された潜伏空間において、観察が著しく異なる2つの点が衝突し、劣化した最適化性能が生じる。
この問題に対処するために,学習された潜在空間の衝突を低減し,Lipschitz連続となる目的値へのマッピングを促進するために,新しい正則化器を用いた効率的な深ベイズ最適化フレームワークであるLOCoを提案する。
LOCoはデータポイントのペアを取り込み、ターゲットの空間距離と比較して潜在空間に近すぎるものをペナルティ化する。
我々は,この動的埋め込みに基づくベイズ最適化アルゴリズムを,ニューラルネットワークをレギュレータで反復的に再学習したことを後悔して,LOCoの厳密な理論的正当性を提供する。
実験により, 合成および実世界のベンチマークベイズ最適化におけるLOCoの有効性を実証した。
関連論文リスト
- Efficient Weight-Space Laplace-Gaussian Filtering and Smoothing for Sequential Deep Learning [29.328769628694484]
連続学習のような関連するタスクのシーケンスを効果的に学習することは、ニューラルネットにとって重要な課題となる。
ベイズ推定に基づくタスクを逐次学習するための基盤的枠組みを用いてこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-09T11:54:33Z) - Efficient Second-Order Neural Network Optimization via Adaptive Trust Region Methods [0.0]
SecondOrderAdaptive (SOAA) は、従来の二階法の限界を克服するために設計された新しい最適化アルゴリズムである。
私たちは、SOAAが1次近似よりも速く、より安定した収束を達成することを実証的に実証します。
論文 参考訳(メタデータ) (2024-10-03T08:23:06Z) - Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Advancing Bayesian Optimization via Learning Correlated Latent Space [15.783344085533187]
本稿では,コラーレント空間ベイズ最適化(CoBO)を提案する。
具体的には, リプシッツ正則化, 損失重み付け, 信頼領域再コーディネートを導入し, 期待する領域の内在的なギャップを最小化する。
本稿では,分子設計や算術式整合など,離散データにおけるいくつかの最適化タスクに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2023-10-31T08:24:41Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Multi-Fidelity Bayesian Optimization via Deep Neural Networks [19.699020509495437]
多くのアプリケーションでは、目的関数を複数の忠実度で評価することで、コストと精度のトレードオフを可能にする。
本稿では,DNN-MFBO(Deep Neural Network Multi-Fidelity Bayesian Optimization)を提案する。
本手法の利点は, 総合的なベンチマークデータセットと, 工学設計における実世界の応用の両方にある。
論文 参考訳(メタデータ) (2020-07-06T23:28:40Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。