論文の概要: Neural Model-based Optimization with Right-Censored Observations
- arxiv url: http://arxiv.org/abs/2009.13828v1
- Date: Tue, 29 Sep 2020 07:32:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:27:29.453341
- Title: Neural Model-based Optimization with Right-Censored Observations
- Title(参考訳): 右検閲観測によるニューラルモデルに基づく最適化
- Authors: Katharina Eggensperger, Kai Haase, Philipp M\"uller, Marius Lindauer
and Frank Hutter
- Abstract要約: ニューラルネットワーク(NN)は、モデルベースの最適化手順のコアでうまく機能することが実証されている。
トレーニングされた回帰モデルは,いくつかのベースラインよりも優れた予測品質が得られることを示す。
- 参考スコア(独自算出の注目度): 42.530925002607376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many fields of study, we only observe lower bounds on the true response
value of some experiments. When fitting a regression model to predict the
distribution of the outcomes, we cannot simply drop these right-censored
observations, but need to properly model them. In this work, we focus on the
concept of censored data in the light of model-based optimization where
prematurely terminating evaluations (and thus generating right-censored data)
is a key factor for efficiency, e.g., when searching for an algorithm
configuration that minimizes runtime of the algorithm at hand. Neural networks
(NNs) have been demonstrated to work well at the core of model-based
optimization procedures and here we extend them to handle these censored
observations. We propose (i)~a loss function based on the Tobit model to
incorporate censored samples into training and (ii) use an ensemble of networks
to model the posterior distribution. To nevertheless be efficient in terms of
optimization-overhead, we propose to use Thompson sampling s.t. we only need to
train a single NN in each iteration. Our experiments show that our trained
regression models achieve a better predictive quality than several baselines
and that our approach achieves new state-of-the-art performance for model-based
optimization on two optimization problems: minimizing the solution time of a
SAT solver and the time-to-accuracy of neural networks.
- Abstract(参考訳): 多くの研究分野において、いくつかの実験の真の応答値の下位境界のみを観察する。
回帰モデルを適用して結果の分布を予測する場合、単にこれらの右検閲された観察を落とすことはできないが、適切にモデル化する必要がある。
本研究では,評価の早期終了(つまり右検閲データの生成)が効率の鍵となるモデルベース最適化の観点から,例えば手元のアルゴリズムの実行時間を最小限にするアルゴリズム構成の探索において,検閲データの概念に焦点を当てる。
ニューラルネットワーク(NN)はモデルベースの最適化手順のコアとしてうまく機能することが実証されている。
提案します
(i)~検閲されたサンプルをトレーニングに組み込むTobitモデルに基づく損失関数
(ii)後方分布をモデル化するためにネットワークのアンサンブルを用いる。
それにもかかわらず、最適化・オーバヘッドの面で効率的であるために、トンプソンサンプリングs.tを使用するように提案する。
提案手法は,SATソルバの解解時間とニューラルネットワークの時間-精度の最小化という2つの最適化問題に対して,モデルベース最適化のための新しい最先端性能を実現するものである。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - Explicit Foundation Model Optimization with Self-Attentive Feed-Forward
Neural Units [4.807347156077897]
バックプロパゲーションを用いた反復近似法はニューラルネットワークの最適化を可能にするが、大規模に使用すると計算コストがかかる。
本稿では、ニューラルネットワークのスケーリングコストを削減し、低リソースアプリケーションに高効率な最適化を提供する、ニューラルネットワークの最適化のための効率的な代替手段を提案する。
論文 参考訳(メタデータ) (2023-11-13T17:55:07Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Adaptive Sparse Gaussian Process [0.0]
これらの問題に対処できる最初の適応スパースガウスプロセス(GP)を提案する。
まず,変分スパースGPアルゴリズムを変形係数によって適応的に再構成する。
そこで我々は,新しいサンプルが到着するたびに,スパースGPモデルの単一誘導点と残りのモデルパラメータを同時に更新することを提案する。
論文 参考訳(メタデータ) (2023-02-20T21:34:36Z) - Censored Quantile Regression Neural Networks [24.118509578363593]
本稿では,ニューラルネットワーク(NN)を用いた検閲データに対する量子レグレッションの実施について考察する。
線形モデルで人気のあるアルゴリズムをNNに適用する方法を示す。
我々の主な貢献は、単一のNNによって出力される量子のグリッドを同時に最適化する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2022-05-26T17:10:28Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Bayes DistNet -- A Robust Neural Network for Algorithm Runtime
Distribution Predictions [1.8275108630751844]
ランダム化アルゴリズムは制約満足度問題 (CSP) やブール満足度問題 (SAT) の多くの最先端の解法で用いられている。
従来の最先端の手法は、入力インスタンスが従う固定パラメトリック分布を直接予測しようとする。
この新モデルは,低観測環境下での堅牢な予測性能と,検閲された観測処理を実現する。
論文 参考訳(メタデータ) (2020-12-14T01:15:39Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。