論文の概要: One to beat them all: "RYU" -- a unifying framework for the construction of safe balls
- arxiv url: http://arxiv.org/abs/2312.00640v2
- Date: Sun, 01 Dec 2024 15:02:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:55:57.773220
- Title: One to beat them all: "RYU" -- a unifying framework for the construction of safe balls
- Title(参考訳): すべてを打ち負かす:「りゅう」-安全なボールを作るための統一的な枠組み
- Authors: Thu-Le Tran, Clément Elvira, Hong-Phuong Dang, Cédric Herzet,
- Abstract要約: 安全領域を構築するための新しいフレームワーク「RYU」を提案する。
我々のフレームワークは、目的関数が2つのコンポーネントから構成される標準的なケースに適用されます。
- 参考スコア(独自算出の注目度): 8.63301363716006
- License:
- Abstract: In this paper, we present a new framework, called "RYU" for constructing "safe" regions -- specifically, bounded sets that are guaranteed to contain the dual solution of a target optimization problem. Our framework applies to the standard case where the objective function is composed of two components: a closed, proper, convex function with Lipschitz-smooth gradient and another closed, proper, convex function. We show that the RYU framework not only encompasses but also improves upon the state-of-the-art methods proposed over the past decade for this class of optimization problems.
- Abstract(参考訳): 本稿では,「安全な」領域を構築するための新しいフレームワーク「RYU」について述べる。
我々のフレームワークは、対象関数が2つの成分からなる標準的な場合、すなわち、リプシッツ-滑らか勾配を持つ閉、固有、凸関数と、別の閉、固有、凸関数である。
このような最適化問題に対して,過去10年間に提案されてきた最先端の手法に,RYUフレームワークが適用可能であることを示す。
関連論文リスト
- Two-Timescale Gradient Descent Ascent Algorithms for Nonconvex Minimax Optimization [77.3396841985172]
我々は、構造化された非極小最適化問題の解法として、2時間勾配上昇(TTGDA)を統一的に解析する。
我々の貢献はTTGDAアルゴリズムを設計することであり、設定を超えて効果的です。
論文 参考訳(メタデータ) (2024-08-21T20:14:54Z) - Bridging the Gap Between General and Down-Closed Convex Sets in
Submodular Maximization [8.225819874406238]
Mualem citemualem23re は、この手法がダウンクローズド制約と非ダウンクローズド制約の間を滑らかにできないことを示す。
本研究では,物体を2つの異なる凸体に自然分解した新しいオフラインおよびオンラインアルゴリズムを提案する。
また、3つのオフラインおよび2つのオンラインアプリケーションにまたがる提案アルゴリズムの優位性を実証的に示す。
論文 参考訳(メタデータ) (2024-01-17T14:56:42Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - Optimal Sets and Solution Paths of ReLU Networks [56.40911684005949]
最適なReLUネットワークの集合を特徴付ける分析フレームワークを開発した。
我々は、ReLUネットワークのニューラル化を継続する条件を確立し、ReLUネットワークに対する感度結果を開発する。
論文 参考訳(メタデータ) (2023-05-31T18:48:16Z) - Fast Algorithm for Constrained Linear Inverse Problems [5.0490573482829335]
我々は、ある原子ノルムが2次制約の下で最小化される制約付き線形逆問題(LIP)を考える。
凸正則性を改善した制約付きLIPの2つの等価な再構成を提案する。
FLIPSの2成分選択,圧縮センシング,画像デノーミングの古典的問題に対する性能を実証する。
論文 参考訳(メタデータ) (2022-12-02T10:12:14Z) - Dueling Convex Optimization with General Preferences [85.14061196945599]
本研究の目的は, エンフィロンリングフィードバックの弱い形を条件として, 凸関数を最小化することである。
我々の主な貢献は、滑らかな凸対象関数に対する収束$smashwidetilde O(epsilon-4p)$と、その目的が滑らかで凸であるときに効率$smashwidetilde O(epsilon-2p)を持つ効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2022-09-27T11:10:41Z) - Black-Box Min--Max Continuous Optimization Using CMA-ES with Worst-case
Ranking Approximation [22.576922942465142]
一般的なアプローチでは、$x$と$y$を同時に、あるいは交互に更新する。
既存のアプローチは、$f$がリプシッツの滑らかで、最適解を囲む凸凸が強い場合失敗する。
本稿では、共分散行列適応進化戦略を用いて、最悪の対象関数 $F(x)=max_yf(x,y)$ を最小化することを提案する。
論文 参考訳(メタデータ) (2022-04-06T08:03:39Z) - Bayesian Optimization for Min Max Optimization [77.60508571062958]
そこで我々は,最適化すべき関数が事前に分かっていないような設定でMin Max Optimizationを実行するアルゴリズムを提案する。
我々は,改善を期待する2つの獲得機能とガウス過程の上部信頼境界を拡張した。
これらの取得機能は、ベンチマーク設定よりも高速に収束する、より良いソリューションを可能にすることを示す。
論文 参考訳(メタデータ) (2021-07-29T06:49:34Z) - Universal Online Convex Optimization Meets Second-order Bounds [74.0120666722487]
ユニバーサルオンライン凸最適化のための簡単な戦略を提案する。
主要なアイデアは、オリジナルのオンライン機能を処理するための専門家のセットを構築し、線形化された損失に対してメタアルゴリズムをデプロイすることである。
このようにして、私たちはブラックボックスの専門家として、既成のオンライン問題解決者をプラグインして、問題依存の後悔の限界を提供することができます。
論文 参考訳(メタデータ) (2021-05-08T11:43:49Z) - Kernel Distributionally Robust Optimization [17.909696462645023]
本稿では、ロバスト最適化理論と関数解析の知見を用いたカーネル分散ロバスト最適化(カーネルDRO)を提案する。
提案手法では,カーネルカーネル(RKHS)を用いて幅広い凸曖昧性を構築し,確率測定値と有限次モーメント集合に基づく集合に一般化することができる。
普遍的な RKHS を用いることで、この定理は損失関数の幅広いクラスに適用され、損失やリプシッツ定数の知識のような共通の制限が解かれる。
論文 参考訳(メタデータ) (2020-06-12T07:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。