論文の概要: Active Level Set Estimation for Continuous Search Space with Theoretical
Guarantee
- arxiv url: http://arxiv.org/abs/2402.16237v1
- Date: Mon, 26 Feb 2024 01:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 14:54:20.958846
- Title: Active Level Set Estimation for Continuous Search Space with Theoretical
Guarantee
- Title(参考訳): 理論的保証を用いた連続探索空間のアクティブレベル推定
- Authors: Giang Ngo, Dang Nguyen, Dat Phan-Trong, Sunil Gupta
- Abstract要約: 本稿では,離散化を必要とせず,連続的な探索空間で直接動作する新しいアルゴリズムを提案する。
提案手法は,与えられた閾値よりも高いあるいは低い関数の信頼度尺度として定義される獲得関数を構築することによって,ポイントを提案する。
複数の合成および実世界のデータセットにおいて、我々のアルゴリズムは最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 10.609848119555975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common problem encountered in many real-world applications is level set
estimation where the goal is to determine the region in the function domain
where the function is above or below a given threshold. When the function is
black-box and expensive to evaluate, the level sets need to be found in a
minimum set of function evaluations. Existing methods often assume a discrete
search space with a finite set of data points for function evaluations and
estimating the level sets. When applied to a continuous search space, these
methods often need to first discretize the space which leads to poor results
while needing high computational time. While some methods cater for the
continuous setting, they still lack a proper guarantee for theoretical
convergence. To address this problem, we propose a novel algorithm that does
not need any discretization and can directly work in continuous search spaces.
Our method suggests points by constructing an acquisition function that is
defined as a measure of confidence of the function being higher or lower than
the given threshold. A theoretical analysis for the convergence of the
algorithm to an accurate solution is provided. On multiple synthetic and
real-world datasets, our algorithm successfully outperforms state-of-the-art
methods.
- Abstract(参考訳): 多くの実世界のアプリケーションでよくある問題は、その関数が与えられたしきい値以上の関数領域内の領域を決定することを目標とするレベルセット推定である。
関数がブラックボックスで評価が高価である場合には、最小限の関数評価セットでレベルセットを見つける必要がある。
既存の手法では、機能評価のための有限個のデータ集合を持つ離散探索空間を仮定し、レベル集合を推定することが多い。
連続探索空間に適用する場合、これらの手法は、高い計算時間を必要とする一方で結果の悪い空間を最初に離散化する必要がある。
連続的な設定に適合するメソッドもあるが、理論収束に対する適切な保証がない。
そこで本研究では,離散化を必要とせず,連続的な探索空間で直接動作する新しいアルゴリズムを提案する。
本手法は,与えられたしきい値よりも高いか低い関数の信頼度尺度として定義される獲得関数を構成することにより,ポイントを提案する。
アルゴリズムの正確な解への収束に関する理論的解析を提供する。
複数の合成および実世界のデータセットにおいて、我々のアルゴリズムは最先端の手法より優れている。
関連論文リスト
- Single-Loop Deterministic and Stochastic Interior-Point Algorithms for Nonlinearly Constrained Optimization [16.356481969865175]
客観的に制約された連続最適化問題の解法として,内点アルゴリズムを提案し,解析し,検証した。
アルゴリズムは、いつ段階的な設定を意図し、見積もりが利用可能で、場所勾配で使われ、目的関数値が適用されない場合に使用される。
論文 参考訳(メタデータ) (2024-08-29T00:50:35Z) - Inference for an Algorithmic Fairness-Accuracy Frontier [0.9147443443422864]
We provide a consistent estimator for a theoretical fairness-accuracy frontier forward by Liang, Lu and Mu (2023)
フェアネス文学で注目されている仮説を検証するための推論手法を提案する。
サンプルサイズが大きくなるにつれて, 推定された支持関数が密なプロセスに収束することを示す。
論文 参考訳(メタデータ) (2024-02-14T00:56:09Z) - The Reinforce Policy Gradient Algorithm Revisited [7.894349646617293]
文献からReinforce Policy gradientアルゴリズムを再検討する。
本稿では,基本アルゴリズムの大幅な拡張を提案する。
この新しいアルゴリズムの収束の証明を提供する。
論文 参考訳(メタデータ) (2023-10-08T04:05:13Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Minimax Optimization: The Case of Convex-Submodular [50.03984152441271]
ミニマックス問題は連続領域を超えて連続離散領域や完全離散領域にまで拡張される。
連続変数に関して目的が凸であり、離散変数に関して部分モジュラーであるような凸-部分モジュラーミニマックス問題のクラスを導入する。
提案アルゴリズムは反復的であり、離散最適化と連続最適化の両方のツールを組み合わせる。
論文 参考訳(メタデータ) (2021-11-01T21:06:35Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - A Granular Sieving Algorithm for Deterministic Global Optimization [6.01919376499018]
リプシッツ連続関数に対する大域的最適化問題を解くために、勾配のない決定論的手法を開発した。
この方法は、目的関数の領域と範囲の両方で同期解析を行うグラニュラーシービングとみなすことができる。
論文 参考訳(メタデータ) (2021-07-14T10:03:03Z) - Linear Convergence of Distributed Mirror Descent with Integral Feedback
for Strongly Convex Problems [11.498089180181365]
本研究では,局所的な勾配情報を用いて最適解に収束する連続時間分散ミラー降下法について検討する。
アルゴリズムが実際に(局所的な)指数収束を達成することを証明している。
論文 参考訳(メタデータ) (2020-11-24T17:27:27Z) - Aligning Partially Overlapping Point Sets: an Inner Approximation
Algorithm [80.15123031136564]
変換の値に関する事前情報がない点集合を整列するロバストな手法を提案する。
我々のアルゴリズムは変換の正規化を必要とせず、変換の値に関する事前情報がない状況に対処できる。
実験により,提案手法が最先端のアルゴリズムよりも高いロバスト性を示した。
論文 参考訳(メタデータ) (2020-07-05T15:23:33Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。