論文の概要: Rates of Convergence for Regression with the Graph Poly-Laplacian
- arxiv url: http://arxiv.org/abs/2209.02305v1
- Date: Tue, 6 Sep 2022 08:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:21:54.012126
- Title: Rates of Convergence for Regression with the Graph Poly-Laplacian
- Title(参考訳): グラフポリラプラシアンを用いた回帰収束速度
- Authors: Nicol\'as Garc\'ia Trillos, Ryan Murray, Matthew Thorpe
- Abstract要約: より高次規則性は、ラプラシア正規化器をポリラプラシア正規化器に置き換えることで得られる。
完全教師付き、非パラメトリック、ノイズ劣化、回帰問題におけるグラフポリラプラシア正規化を考察する。
- 参考スコア(独自算出の注目度): 3.222802562733786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the (special) smoothing spline problem one considers a variational problem
with a quadratic data fidelity penalty and Laplacian regularisation. Higher
order regularity can be obtained via replacing the Laplacian regulariser with a
poly-Laplacian regulariser. The methodology is readily adapted to graphs and
here we consider graph poly-Laplacian regularisation in a fully supervised,
non-parametric, noise corrupted, regression problem. In particular, given a
dataset $\{x_i\}_{i=1}^n$ and a set of noisy labels
$\{y_i\}_{i=1}^n\subset\mathbb{R}$ we let $u_n:\{x_i\}_{i=1}^n\to\mathbb{R}$ be
the minimiser of an energy which consists of a data fidelity term and an
appropriately scaled graph poly-Laplacian term. When $y_i = g(x_i)+\xi_i$, for
iid noise $\xi_i$, and using the geometric random graph, we identify (with high
probability) the rate of convergence of $u_n$ to $g$ in the large data limit
$n\to\infty$. Furthermore, our rate, up to logarithms, coincides with the known
rate of convergence in the usual smoothing spline model.
- Abstract(参考訳): 特別な)平滑化スプライン問題では、二次データ忠実性ペナルティとラプラシアン正則化を持つ変分問題を考える。
より高次規則性は、ラプラシア正規化器をポリラプラシア正規化器に置き換えることで得られる。
本手法はグラフに容易に適応でき, 完全に教師付き, 非パラメトリック, ノイズ崩壊, 回帰問題においてグラフポリラプラシアン正則化を考える。
特に、データセット $\{x_i\}_{i=1}^n$ とノイズラベルの集合 $\{y_i\}_{i=1}^n\subset\mathbb{R}$ を与えられると、$u_n:\{x_i\}_{i=1}^n\to\mathbb{R}$ は、データフィデリティ項と適切にスケールされたグラフポリラプラシアン項からなるエネルギーのミニミザーとなる。
iid ノイズ $\xi_i$ に対して $y_i = g(x_i)+\xi_i$ とすると、幾何ランダムグラフを用いて、大容量データ制限$n\to\infty$ において $u_n$ から $g$ への収束率を(高い確率で)同定する。
さらに、対数に対する我々の速度は、通常の滑らかなスプラインモデルにおける既知の収束率と一致する。
関連論文リスト
- Data subsampling for Poisson regression with pth-root-link [53.63838219437508]
ポアソン回帰のためのデータサブサンプリング手法を開発し解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
論文 参考訳(メタデータ) (2024-10-30T10:09:05Z) - Convergence rates for Poisson learning to a Poisson equation with measure data [2.7961972519572447]
グラフに基づく半教師付き学習アルゴリズムであるPoisson Learningに対して,連続収束率を離散的に証明する。
グラフ熱核によるモリフィケーションによるグラフポアソン方程式の正則化法を示す。
我々は、一般的なデータ分布に$O(varepsilonfrac1d+2)$、均一に分散したデータに$O(varepsilonfrac2-sigmad+4)$などの対数因子にスケールする収束率を得る。
論文 参考訳(メタデータ) (2024-07-09T11:54:34Z) - Hypergraph $p$-Laplacian regularization on point clouds for data interpolation [3.79830302036482]
ハイパーグラフはデータの高次関係をモデル化するために広く使われている。
点クラウド上の$varepsilon_n$-ballハイパーグラフと$k_n$-nearest 近傍ハイパーグラフを定義する。
半教師付き環境でのハイパーグラフ$p$-ラプラシアン正則化と$p$-ラプラシアン正則化の間の変分一貫性を証明した。
論文 参考訳(メタデータ) (2024-05-02T09:17:32Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Efficient Signed Graph Sampling via Balancing & Gershgorin Disc Perfect
Alignment [51.74913666829224]
強い反相関を持つデータセットに対して、適切なグラフは正および負のエッジ重みの両方を含むことを示す。
本稿では,平衡符号グラフの概念に着目した線形時間符号グラフサンプリング手法を提案する。
実験結果から, 署名付きグラフサンプリング手法は, 各種データセットにおいて, 既存の高速サンプリング方式よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-18T09:19:01Z) - Bi-stochastically normalized graph Laplacian: convergence to manifold Laplacian and robustness to outlier noise [10.418647759223965]
双確率正規化 (bi-stochastic normalization) はグラフベースのデータ解析においてグラフラプラシアンの代替正規化を提供する。
両階層正規化グラフ Laplacian から (重み付き) Laplacian への収束を速度で証明する。
多様体データが外乱ノイズによって破損した場合、理論的にはラプラシア点の整合性を証明する。
論文 参考訳(メタデータ) (2022-06-22T21:08:24Z) - Learning Sparse Graph with Minimax Concave Penalty under Gaussian Markov
Random Fields [51.07460861448716]
本稿では,データから学ぶための凸解析フレームワークを提案する。
三角凸分解はその上部に対応する変換によって保証されることを示す。
論文 参考訳(メタデータ) (2021-09-17T17:46:12Z) - Minimax Optimal Regression over Sobolev Spaces via Laplacian
Regularization on Neighborhood Graphs [25.597646488273558]
非パラメトリック回帰に対するグラフに基づくアプローチであるラプラシア平滑化の統計的性質について検討する。
ラプラシアン滑らか化が多様体適応であることを証明する。
論文 参考訳(メタデータ) (2021-06-03T01:20:41Z) - Accelerated Gradient Tracking over Time-varying Graphs for Decentralized Optimization [59.65871549878937]
実用的な単一ループ加速勾配追跡には$O(fracgamma1-sigma_gamma)2sqrtfracLepsilon)$が必要であることを証明している。
我々の収束率は$O(frac1epsilon5/7)$と$O(fracLmu)5/7frac1(1-sigma)1.5logfrac1epsilon)$よりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-06T15:34:14Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Does the $\ell_1$-norm Learn a Sparse Graph under Laplacian Constrained
Graphical Models? [13.572602792770288]
ラプラシアン制約ガウス図形モデルの下でグラフを学習する問題を考察する。
我々は、大きな正規化パラメータが驚くほど完全なグラフ、すなわちエッジで接続されたすべてのエッジにつながることを示した。
論文 参考訳(メタデータ) (2020-06-26T12:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。