論文の概要: Continuum Limit of Lipschitz Learning on Graphs
- arxiv url: http://arxiv.org/abs/2012.03772v2
- Date: Wed, 3 Feb 2021 17:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:33:31.439473
- Title: Continuum Limit of Lipschitz Learning on Graphs
- Title(参考訳): グラフ上のリプシッツ学習の継続限界
- Authors: Tim Roith, Leon Bungert
- Abstract要約: 我々は$Gamma$-convergenceを使ってLipschitz学習の連続的限界を証明する。
最小化の収束を意味する関数のコンパクト性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tackling semi-supervised learning problems with graph-based methods have
become a trend in recent years since graphs can represent all kinds of data and
provide a suitable framework for studying continuum limits, e.g., of
differential operators. A popular strategy here is $p$-Laplacian learning,
which poses a smoothness condition on the sought inference function on the set
of unlabeled data. For $p<\infty$ continuum limits of this approach were
studied using tools from $\Gamma$-convergence. For the case $p=\infty$, which
is referred to as Lipschitz learning, continuum limits of the related
infinity-Laplacian equation were studied using the concept of viscosity
solutions.
In this work, we prove continuum limits of Lipschitz learning using
$\Gamma$-convergence. In particular, we define a sequence of functionals which
approximate the largest local Lipschitz constant of a graph function and prove
$\Gamma$-convergence in the $L^\infty$-topology to the supremum norm of the
gradient as the graph becomes denser. Furthermore, we show compactness of the
functionals which implies convergence of minimizers. In our analysis we allow a
varying set of labeled data which converges to a general closed set in the
Hausdorff distance. We apply our results to nonlinear ground states and, as a
by-product, prove convergence of graph distance functions to geodesic distance
functions.
- Abstract(参考訳): グラフがあらゆる種類のデータを表現でき、例えば微分作用素の連続極限を研究するのに適したフレームワークを提供するため、グラフに基づく手法による半教師付き学習問題への対処は近年トレンドとなっている。
一般的な戦略は$p$-laplacian learningで、ラベルなしデータのセットで求めた推論関数に滑らかさ条件を与える。
このアプローチの連続極限である$p<\infty$は、$\Gamma$-convergenceのツールを用いて研究された。
リプシッツ学習と呼ばれる$p=\infty$の場合、関連する無限大-ラプラシアン方程式の連続極限は粘性解の概念を用いて研究された。
本研究では,$\gamma$-convergenceを用いてリプシッツ学習の連続限界を証明する。
特に、グラフ関数の最大の局所リプシッツ定数を近似する関数列を定義し、グラフがより密になるにつれて勾配の超越ノルムに対する$l^\infty$位相論において$\gamma$-convergenceを証明する。
さらに、最小化器の収束を意味する関数のコンパクト性を示す。
我々の分析では、ハウスドルフ距離の一般閉集合に収束する様々なラベル付きデータの集合を許容する。
その結果を非線形基底状態に適用し,その副産物として測地距離関数へのグラフ距離関数の収束を証明する。
関連論文リスト
- Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の等方的ガウスデータの下で勾配降下学習の問題を考察する。
SGDアルゴリズムで最適化された2層ニューラルネットワークは、サンプル付き任意のリンク関数の$f_*$を学習し、実行時の複雑さは$n asymp T asymp C(q) cdot dであることを示す。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Continuum limit of $p$-biharmonic equations on graphs [3.79830302036482]
ランダムな幾何グラフが考慮され、データポイントの数が無限大になるとき、解の挙動を調査する。
連続極限は、均一なノイマン境界条件を持つ適切な重み付き$p$-ビハーモニック方程式であることを示す。
論文 参考訳(メタデータ) (2024-04-30T16:29:44Z) - Tight and fast generalization error bound of graph embedding in metric
space [54.279425319381374]
非ユークリッド計量空間へのグラフ埋め込みは、既存の有界よりもはるかに少ない訓練データを持つユークリッド空間におけるグラフ埋め込みよりも優れていることを示す。
我々の新しい上限は、既存の上限よりもかなり強く速く、最大で$R$と$O(frac1S)$に指数関数できる。
論文 参考訳(メタデータ) (2023-05-13T17:29:18Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - $\alpha$-GAN: Convergence and Estimation Guarantees [7.493779672689531]
一般CPE損失関数 GAN の min-max 最適化と、関連する$f$-divergences の最小化との対応性を証明する。
次に、$alpha$-GAN を $alpha$-loss で定義し、いくつかの GAN を補間し、有元発散の最小化に対応する。
論文 参考訳(メタデータ) (2022-05-12T23:26:51Z) - Hamilton-Jacobi equations on graphs with applications to semi-supervised
learning and data depth [1.52292571922932]
グラフ上のハミルトン・ヤコビ方程式の族を研究し、これを$p$-ekonal equation(英語版)と呼ぶ。
p=1$ の $p$-ekonal 方程式はグラフ上の証明可能な頑健な距離型関数であることを示す。
我々は,データ深度と半教師付き学習に対する$p$-ekonal方程式の適用を考察し,連続極限を用いて両者の整合性を証明した。
論文 参考訳(メタデータ) (2022-02-17T17:50:55Z) - Uniform Convergence Rates for Lipschitz Learning on Graphs [1.9014535120129339]
リプシッツ学習(英: Lipschitz learning)は、グラフに基づく半教師付き学習法である。
グラフ無限大ラプラス方程式の解に対する一様収束率を証明する。
論文 参考訳(メタデータ) (2021-11-24T09:44:14Z) - Learning Sparse Graph with Minimax Concave Penalty under Gaussian Markov
Random Fields [51.07460861448716]
本稿では,データから学ぶための凸解析フレームワークを提案する。
三角凸分解はその上部に対応する変換によって保証されることを示す。
論文 参考訳(メタデータ) (2021-09-17T17:46:12Z) - Proximal Gradient Descent-Ascent: Variable Convergence under K{\L}
Geometry [49.65455534654459]
有限降下指数パラメータ (GDA) はミニマックス最適化問題の解法として広く応用されている。
本稿では、KL-L型幾何学の収束を研究することにより、そのようなギャップを埋める。
論文 参考訳(メタデータ) (2021-02-09T05:35:53Z) - Lipschitz regularity of graph Laplacians on random data clouds [1.2891210250935146]
グラフポアソン方程式の解に対する高確率内部および大域リプシッツ推定を証明した。
我々の結果は、グラフラプラシア固有ベクトルが、高い確率で、本質的には、対応する固有値に明示的に依存する定数を持つリプシッツ正則であることが示せる。
論文 参考訳(メタデータ) (2020-07-13T20:43:19Z) - Complexity of Finding Stationary Points of Nonsmooth Nonconvex Functions [84.49087114959872]
非滑らかで非滑らかな関数の定常点を見つけるための最初の非漸近解析を提供する。
特に、アダマール半微分可能函数(おそらく非滑らか関数の最大のクラス)について研究する。
論文 参考訳(メタデータ) (2020-02-10T23:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。