論文の概要: Multi-fidelity Stability for Graph Representation Learning
- arxiv url: http://arxiv.org/abs/2111.12865v1
- Date: Thu, 25 Nov 2021 01:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-05 02:44:08.294153
- Title: Multi-fidelity Stability for Graph Representation Learning
- Title(参考訳): グラフ表現学習のための多相安定性
- Authors: Yihan He, Joan Bruna
- Abstract要約: エンフルティ忠実度安定性(英語版)と呼ばれるより弱い一様一般化を導入し、その例を示す。
2種類の安定性の相違点について,多相性設計を正当化する下界を提示する。
- 参考スコア(独自算出の注目度): 38.31487722188051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the problem of structured prediction with graph representation learning
(GRL for short), the hypothesis returned by the algorithm maps the set of
features in the \emph{receptive field} of the targeted vertex to its label. To
understand the learnability of those algorithms, we introduce a weaker form of
uniform stability termed \emph{multi-fidelity stability} and give learning
guarantees for weakly dependent graphs. We testify that
~\citet{london2016stability}'s claim on the generalization of a single sample
holds for GRL when the receptive field is sparse. In addition, we study the
stability induced bound for two popular algorithms: \textbf{(1)} Stochastic
gradient descent under convex and non-convex landscape. In this example, we
provide non-asymptotic bounds that highly depend on the sparsity of the
receptive field constructed by the algorithm. \textbf{(2)} The constrained
regression problem on a 1-layer linear equivariant GNN. In this example, we
present lower bounds for the discrepancy between the two types of stability,
which justified the multi-fidelity design.
- Abstract(参考訳): グラフ表現学習(GRL)を用いた構造化予測問題において、アルゴリズムによって返される仮説は、対象頂点の \emph{receptive field} における特徴の集合をそのラベルにマッピングする。
これらのアルゴリズムの学習可能性を理解するために、emph{multi-fidelity stability}と呼ばれる一様安定性の弱い形式を導入し、弱依存グラフの学習保証を与える。
我々は ~\citet{london2016stability} の GRL に対する単一サンプルの一般化に関する主張は、受容場がスパースであるときに成り立つことを証明している。
さらに, 2つの一般的なアルゴリズムについて, 凸および非凸環境下での確率的勾配降下の安定性について検討した。
この例では、アルゴリズムによって構築された受容体のスパース性に大きく依存する非漸近境界を提供する。
1-層線型同値 gnn 上の制約付き回帰問題 \textbf{(2)} 。
この例では、多重忠実性設計を正当化した2種類の安定性の差に対する下限を示す。
関連論文リスト
- An Accelerated Algorithm for Stochastic Bilevel Optimization under Unbounded Smoothness [15.656614304616006]
本稿では,上層関数が非非有界な滑らかさであり,下層関数が強く凸であるような二層最適化問題のクラスについて検討する。
これらの問題は、ニューラルネットワークを用いたテキスト分類など、データ学習に大きな応用がある。
論文 参考訳(メタデータ) (2024-09-28T02:30:44Z) - Boosting the Confidence of Generalization for $L_2$-Stable Randomized
Learning Algorithms [41.082982732100696]
適切に設計されたサブバッグプロセスは、データとアルゴリズムの両方にほぼ28の指数関数的一般化バウンダリをもたらすことを示す。
さらに、自然減衰学習率を持つ凸問題や非重み付き問題に対する高確率一般化境界を改善するために、総合的な結果を導出する。
論文 参考訳(メタデータ) (2022-06-08T12:14:01Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Learning Graphs from Smooth Signals under Moment Uncertainty [23.868075779606425]
与えられたグラフ信号の集合からグラフ構造を推測する問題を検討する。
従来のグラフ学習モデルは、この分布の不確実性を考慮していない。
論文 参考訳(メタデータ) (2021-05-12T06:47:34Z) - Stability and Generalization of Stochastic Gradient Methods for Minimax
Problems [71.60601421935844]
多くの機械学習問題は、GAN(Generative Adversarial Networks)のようなミニマックス問題として定式化できる。
ミニマックス問題に対するトレーニング勾配法から例を包括的に一般化解析する。
論文 参考訳(メタデータ) (2021-05-08T22:38:00Z) - A Contour Stochastic Gradient Langevin Dynamics Algorithm for
Simulations of Multi-modal Distributions [17.14287157979558]
ビッグデータ統計学の学習のための適応重み付き勾配ランゲヴィン力学(SGLD)を提案する。
提案アルゴリズムは、CIFAR100を含むベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-10-19T19:20:47Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Stability of Stochastic Gradient Descent on Nonsmooth Convex Losses [52.039438701530905]
任意のリプシッツ非平滑凸損失に対して,数種類の勾配勾配降下(SGD)に対して,鋭い上下境界を与える。
我々の限界は、極端に過剰な集団リスクを伴う、微分的にプライベートな非平滑凸最適化のための新しいアルゴリズムを導出することを可能にする。
論文 参考訳(メタデータ) (2020-06-12T02:45:21Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。