論文の概要: Yuille-Poggio's Flow and Global Minimizer of polynomials through
convexification by Heat Evolution
- arxiv url: http://arxiv.org/abs/2301.00326v1
- Date: Sun, 1 Jan 2023 02:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:58:17.808293
- Title: Yuille-Poggio's Flow and Global Minimizer of polynomials through
convexification by Heat Evolution
- Title(参考訳): 熱進化による対流による多項式の流れと大域的最小化
- Authors: Qiao Wang
- Abstract要約: 我々は、大域最小化 $x*$ of $p(x)$ が、その凸化 $p(x)$ の大域最小化から逆発展可能であることを証明している。
- 参考スコア(独自算出の注目度): 7.560238391888411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate the possibility of the
backward-differential-flow-like algorithm which starts from the minimum of
convexification version of the polynomial. We apply the heat evolution
convexification approach through Gaussian filtering, which is actually an
accumulation version of Steklov's regularization. We generalize the fingerprint
theory which was proposed in the theory of computer vision by A.L. Yuille and
T. Poggio in 1980s, in particular their fingerprint trajectory equation, to
characterize the evolution of minimizers across the scale. On the other hand,
we propose the "seesaw" polynomials $p(x|s)$ and we find a seesaw differential
equation $\frac{\partial p(x|s)}{\,ds}=-\frac{1}{p''(x)}$ to characterize the
evolution of global minimizer $x^*(s)$ of $p(x|s)$ while varying $s$.
Essentially, both the fingerprints $\mathcal{FP}_2$ and $\mathcal{FP}_3$ of
$p(x)$, consisting of the zeros of $\frac{\partial^2 p(x,t)}{\partial x^2}$ and
$\frac{\partial^3 p(x,t)}{\partial x^3}$, respectively, are independent of
seesaw coefficient $s$, upon which we define the Confinement Zone and Escape
Zone. Meanwhile, varying $s$ will monotonically condition the location of
global minimizer of $p(x|s)$, and all these location form the Attainable Zone.
Based on these concepts, we prove that the global minimizer $x^*$ of $p(x)$ can
be inversely evolved from the global minimizer of its convexification
polynomial $p(x,t_0)$ if and only if $x^*$ is included in the Escape Zone. In
particular, we give detailed analysis for quartic and six degree polynomials.
- Abstract(参考訳): 本稿では,多項式の凸化最小バージョンから開始する逆微分フロー様アルゴリズムの可能性について検討する。
我々は、実際にステクロフの正則化の累積版であるガウスフィルターを用いて熱進化凸化手法を適用する。
我々は1980年代にA.L. Yuille と T. Poggio によってコンピュータビジョン理論において提案された指紋理論、特にその指紋軌跡方程式を一般化し、スケールをまたいだ最小値の進化を特徴づける。
一方、seesaw 多項式 $p(x|s)$ を提案し、seesaw 微分方程式 $\frac{\partial p(x|s)}{\,ds}=-\frac{1}{p''(x)}$ を見つけ、大域最小化 $x^*(s)$ of $p(x|s)$ を特徴付ける。
基本的に、指紋 $\mathcal{FP}_2$ と $\mathcal{FP}_3$ of $p(x)$ は、それぞれ$\frac{\partial^2 p(x,t)}{\partial x^2}$ と $\frac{\partial^3 p(x,t)}{\partial x^3}$ の零点から成り立つ。
一方、様々な$s$は、大域最小化器の位置を$p(x|s)$で単調に条件付け、これらすべての位置はアセナブルゾーンを形成する。
これらの概念に基づいて、大域的最小化子 $x^*$ of $p(x)$ が、その凸化多項式 $p(x,t_0)$ の大域的最小化子から逆進化できることを証明する。
特に、クォート多項式と6次多項式について詳細な解析を行う。
関連論文リスト
- Algorithms for mean-field variational inference via polyhedral
optimization in the Wasserstein space [11.24340047830277]
ワッサーシュタイン空間上の有限次元多面体部分集合の理論を開発し、一階法による函数の最適化を行う。
我々の主な応用は平均場変動推論の問題であり、これは分布の$pi$ over $mathbbRd$を製品測度$pistar$で近似しようとするものである。
論文 参考訳(メタデータ) (2023-12-05T16:02:04Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - $O(k)$-Equivariant Dimensionality Reduction on Stiefel Manifolds [2.2334941294830095]
多くの実世界のデータセットは、高次元のスティーフェル多様体とグラスマン多様体に、それぞれ$V_k(mathbbRN)$と$Gr(k, mathbbRN)$で存在する。
我々は,PSC(Principal Stiefel Coordinates)と呼ばれるアルゴリズムを提案し,データ次元を$V_k(mathbbRN)$から$V_k(mathbbRN)$へ$O(k)$-equivariantな方法で還元する。
論文 参考訳(メタデータ) (2023-09-19T17:21:12Z) - Accelerated Methods for Riemannian Min-Max Optimization Ensuring Bounded
Geometric Penalties [21.141544548229774]
我々は$min_x max_y f(x, y) という形式で、$mathcalN$ は Hadamard である。
我々は、勾配収束定数を減少させることにより、グローバルな関心が加速されることを示す。
論文 参考訳(メタデータ) (2023-05-25T15:43:07Z) - Horizon-Free and Variance-Dependent Reinforcement Learning for Latent
Markov Decision Processes [62.90204655228324]
我々は,後期マルコフ決定過程(LMDP)における強化学習(RL)の文脈を考慮した後悔の最小化について検討した。
我々は,モデル最適化と値最適化の両手法でインスタンス化できる,新しいモデルベースアルゴリズムフレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-20T21:32:01Z) - Shallow neural network representation of polynomials [91.3755431537592]
d+1+sum_r=2Rbinomr+d-1d-1[binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1]
論文 参考訳(メタデータ) (2022-08-17T08:14:52Z) - Beyond the Berry Phase: Extrinsic Geometry of Quantum States [77.34726150561087]
状態の量子多様体のすべての性質がゲージ不変のバーグマンによって完全に記述されることを示す。
偏光理論への我々の結果の即時適用について述べる。
論文 参考訳(メタデータ) (2022-05-30T18:01:34Z) - Ridgeless Interpolation with Shallow ReLU Networks in $1D$ is Nearest
Neighbor Curvature Extrapolation and Provably Generalizes on Lipschitz
Functions [16.75218291152252]
一層のReLUネットワークの正確な幾何学的記述を1つの線形単位を持つ$z(x;theta)$で証明する。
我々はこれらをリッジレスReLU補間剤と呼ぶ。
この結果から,リッジレスReLU補間器は1d$リプシッツ関数の学習に最適な一般化を実現することがわかった。
論文 参考訳(メタデータ) (2021-09-27T11:32:24Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z) - Learning Polynomials of Few Relevant Dimensions [12.122488725065388]
多項式回帰は学習と統計の基本的な原始である。
およそ$N = O_r,d(n log2(1/epsilon) (log n)d)$と$O_r,d(N n2)$である。
論文 参考訳(メタデータ) (2020-04-28T18:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。