論文の概要: Concentration inequalities for semidefinite least squares based on data
- arxiv url: http://arxiv.org/abs/2509.13166v1
- Date: Tue, 16 Sep 2025 15:17:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.147062
- Title: Concentration inequalities for semidefinite least squares based on data
- Title(参考訳): データに基づく半定値最小二乗の濃度不等式
- Authors: Filippo Fabiani, Andrea Simonetto,
- Abstract要約: 半定値(SD)制約を用いたデータ駆動最小二乗問題(LS)について検討する。
これらの制約が緩和されたとき、最適解のスペクトル上で有限サンプル保証を導出する。
- 参考スコア(独自算出の注目度): 0.6445605125467572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study data-driven least squares (LS) problems with semidefinite (SD) constraints and derive finite-sample guarantees on the spectrum of their optimal solutions when these constraints are relaxed. In particular, we provide a high confidence bound allowing one to solve a simpler program in place of the full SDLS problem, while ensuring that the eigenvalues of the resulting solution are $\varepsilon$-close of those enforced by the SD constraints. The developed certificate, which consistently shrinks as the number of data increases, turns out to be easy-to-compute, distribution-free, and only requires independent and identically distributed samples. Moreover, when the SDLS is used to learn an unknown quadratic function, we establish bounds on the error between a gradient descent iterate minimizing the surrogate cost obtained with no SD constraints and the true minimizer.
- Abstract(参考訳): 半定値(SD)制約を持つデータ駆動最小二乗問題(LS)について検討し、これらの制約が緩和されたとき、最適解のスペクトル上で有限サンプル保証を導出する。
特に、SDLS問題の代わりにより単純なプログラムを解くことができ、結果として得られる解の固有値がSD制約によって強制されるプログラムの$\varepsilon$-close であることを保証する。
データ数が増えるにつれて一貫して縮小するこの証明書は、計算が容易で、配布も不要で、独立した、同一の分散サンプルしか必要としない。
さらに,SDLSを用いて未知の二次関数を学習する場合,SD制約のないサロゲートコストと真の最小化器との誤差を最小化する。
関連論文リスト
- Private Rate-Constrained Optimization with Applications to Fair Learning [39.172158806012966]
差分プライバシー(DP)下における制約問題について検討する。
我々は、レート制約問題のラグランジアン定式化を解決するグラディエント・Descent-Ascent(SGDA)アルゴリズムの変種であるRaCO-DPを開発する。
論文 参考訳(メタデータ) (2025-05-28T17:55:01Z) - Controllable Generation via Locally Constrained Resampling [77.48624621592523]
本研究では, ベイズ条件付けを行い, 制約条件下でサンプルを描画する, トラクタブルな確率的手法を提案する。
提案手法はシーケンス全体を考慮し,現行のグリード法よりも大域的に最適に制約された生成を導出する。
提案手法は, 有害な世代からモデル出力を分離し, 脱毒化に対する同様のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-17T00:49:53Z) - Low-Rank Extragradient Methods for Scalable Semidefinite Optimization [17.384717824118255]
この問題が低ランクの解を許容する高次元かつ高可算な設定に焦点をあてる。
これらの条件下では、よく知られた過次法が制約付き最適化問題の解に収束することを示す理論的結果がいくつか提示される。
論文 参考訳(メタデータ) (2024-02-14T10:48:00Z) - Offline Minimax Soft-Q-learning Under Realizability and Partial Coverage [100.8180383245813]
オフライン強化学習(RL)のための値ベースアルゴリズムを提案する。
ソフトマージン条件下でのバニラQ関数の類似した結果を示す。
我々のアルゴリズムの損失関数は、推定問題を非線形凸最適化問題とラグランジフィケーションとしてキャストすることによって生じる。
論文 参考訳(メタデータ) (2023-02-05T14:22:41Z) - Fully Stochastic Trust-Region Sequential Quadratic Programming for
Equality-Constrained Optimization Problems [62.83783246648714]
目的と決定論的等式制約による非線形最適化問題を解くために,逐次2次プログラミングアルゴリズム(TR-StoSQP)を提案する。
アルゴリズムは信頼領域半径を適応的に選択し、既存の直線探索StoSQP方式と比較して不確定なヘッセン行列を利用することができる。
論文 参考訳(メタデータ) (2022-11-29T05:52:17Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。