論文の概要: Convexity Certificates from Hessians
- arxiv url: http://arxiv.org/abs/2210.10430v1
- Date: Wed, 19 Oct 2022 09:52:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 16:08:05.725804
- Title: Convexity Certificates from Hessians
- Title(参考訳): ヘッセン人の凸性証明書
- Authors: Julien Klaus, Niklas Merk, Konstantin Wiedom, S\"oren Laue, Joachim
Giesen
- Abstract要約: 微分可能凸関数のヘシアンを確認することは、凸性を証明する自然なアプローチである。
正の半定性のためにヘッセンの計算グラフのチェック方法を示す。
微分可能な関数に対して、Hessianアプローチは実際より強力である、DCPアプローチの最先端の実装を示す。
- 参考スコア(独自算出の注目度): 9.905883167156393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Hessian of a differentiable convex function is positive semidefinite.
Therefore, checking the Hessian of a given function is a natural approach to
certify convexity. However, implementing this approach is not straightforward
since it requires a representation of the Hessian that allows its analysis.
Here, we implement this approach for a class of functions that is rich enough
to support classical machine learning. For this class of functions, it was
recently shown how to compute computational graphs of their Hessians. We show
how to check these graphs for positive semidefiniteness. We compare our
implementation of the Hessian approach with the well-established disciplined
convex programming (DCP) approach and prove that the Hessian approach is at
least as powerful as the DCP approach for differentiable functions.
Furthermore, we show for a state-of-the-art implementation of the DCP approach
that, for differentiable functions, the Hessian approach is actually more
powerful. That is, it can certify the convexity of a larger class of
differentiable functions.
- Abstract(参考訳): 微分可能凸関数の Hessian は正半定値である。
したがって、与えられた函数のヘッシアンをチェックすることは凸性を証明する自然なアプローチである。
しかし、このアプローチの実装は単純ではなく、解析を可能にするヘッセンの表現が必要である。
本稿では,従来の機械学習をサポートするのに十分な関数のクラスに対して,このアプローチを実装した。
このクラスの関数については、最近ヘッセンの計算グラフの計算方法が示されている。
これらのグラフを正半定値でチェックする方法を示す。
我々はHessianアプローチの実装を、よく確立された規律付き凸プログラミング(DCP)アプローチと比較し、Hessianアプローチが微分可能な関数に対するDCPアプローチと同じくらい強力であることを証明する。
さらに,dcpアプローチの最先端実装として,微分可能関数の場合,ヘッセンアプローチの方がより強力であることを示す。
すなわち、より大きな微分可能関数のクラスの凸性を証明することができる。
関連論文リスト
- Efficient Fairness-Performance Pareto Front Computation [51.558848491038916]
最適公正表現はいくつかの有用な構造特性を持つことを示す。
そこで,これらの近似問題は,凹凸プログラミング法により効率的に解けることを示す。
論文 参考訳(メタデータ) (2024-09-26T08:46:48Z) - Single-Loop Stochastic Algorithms for Difference of Max-Structured Weakly Convex Functions [41.43895948769255]
非滑らかな非漸近公正問題のクラスを$min_x[yin Yphi(x, y) - max_zin Zpsix(x, z)]$の形で示す。
本稿では,これらの問題を解く最初の方法であるエンベロープ近似勾配SMAGを提案する。
論文 参考訳(メタデータ) (2024-05-28T20:52:46Z) - Statistical Inference of Optimal Allocations I: Regularities and their Implications [3.904240476752459]
まず、ソート作用素の一般性質の詳細な解析を通して、値関数のアダマール微分可能性(英語版)を導出する。
アダマール微分可能性の結果に基づいて、関数デルタ法を用いて値関数プロセスの特性を直接導出する方法を実証する。
論文 参考訳(メタデータ) (2024-03-27T04:39:13Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Learning PSD-valued functions using kernel sums-of-squares [94.96262888797257]
PSDコーンの値を取る関数に対して,カーネルの総和モデルを導入する。
PSD関数の普遍近似を構成することを示し、サブサンプル等式制約の場合の固有値境界を導出する。
次に、この結果を凸関数のモデル化に応用し、ヘッセンのカーネル和-二乗表現を強制する。
論文 参考訳(メタデータ) (2021-11-22T16:07:50Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - SGB: Stochastic Gradient Bound Method for Optimizing Partition Functions [15.33098084159285]
本稿では,学習環境における分割関数の最適化の問題に対処する。
本稿では,2次代理を持つ分割関数の上界に依存する有界偏化アルゴリズムの変種を提案する。
論文 参考訳(メタデータ) (2020-11-03T04:42:51Z) - On The Convergence of First Order Methods for Quasar-Convex Optimization [1.52292571922932]
近年、ディープラーニングの成功は、多くの研究者に一般的なスムーズな非サーサー関数の研究を促している。
本稿では,様々な異なる設定における第1手法の収束について検討する。
論文 参考訳(メタデータ) (2020-10-10T08:16:32Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。