論文の概要: Global Convergence and Generalization Bound of Gradient-Based
Meta-Learning with Deep Neural Nets
- arxiv url: http://arxiv.org/abs/2006.14606v2
- Date: Mon, 16 Nov 2020 05:28:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:21:59.681948
- Title: Global Convergence and Generalization Bound of Gradient-Based
Meta-Learning with Deep Neural Nets
- Title(参考訳): 深層ニューラルネットワークを用いた勾配型メタラーニングのグローバル収束と一般化
- Authors: Haoxiang Wang, Ruoyu Sun, Bo Li
- Abstract要約: ディープネットを用いた勾配に基づくメタラーニングMLの特性について検討する。
GBMLは過去のタスクから新しいタスクへの経験を伝達する機能操作と等価であることを示す。
- 参考スコア(独自算出の注目度): 22.995611600034923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient-based meta-learning (GBML) with deep neural nets (DNNs) has become a
popular approach for few-shot learning. However, due to the non-convexity of
DNNs and the bi-level optimization in GBML, the theoretical properties of GBML
with DNNs remain largely unknown. In this paper, we first aim to answer the
following question: Does GBML with DNNs have global convergence guarantees? We
provide a positive answer to this question by proving that GBML with
over-parameterized DNNs is guaranteed to converge to global optima at a linear
rate. The second question we aim to address is: How does GBML achieve fast
adaption to new tasks with prior experience on past tasks? To answer it, we
theoretically show that GBML is equivalent to a functional gradient descent
operation that explicitly propagates experience from the past tasks to new
ones, and then we prove a generalization error bound of GBML with
over-parameterized DNNs.
- Abstract(参考訳): ディープニューラルネット(DNN)を備えたグラディエントベースメタラーニング(GBML)は、数ショット学習において一般的なアプローチとなっている。
しかし、DNNの非凸性とGBMLの双レベル最適化のため、GBMLとDNNの理論的性質はほとんど不明である。
本稿では,まず,dnnを用いたgbmlはグローバル収束保証を持つか,という疑問に答えることを目的とする。
我々は、過パラメータDNNを持つGBMLが線形速度でグローバル最適に収束することが保証されていることを証明して、この問題に対する肯定的な回答を提供する。
GBMLは、過去のタスクでの経験を持つ新しいタスクへの迅速な適応をどのように達成しますか?
理論的には,GBMLは,過去のタスクから新しいタスクへの経験を明示的に伝達する関数勾配降下演算と等価であることを示し,その上で,過パラメータDNNによるGBMLの一般化誤差を証明した。
関連論文リスト
- Forward Learning of Graph Neural Networks [17.79590285482424]
バックプロパゲーション(BP)はディープニューラルネットワーク(NN)のトレーニングにおけるデファクトスタンダードである
BPは、生物学的に理解できないだけでなく、NN学習のスケーラビリティ、並列性、柔軟性を制限しているいくつかの制約を課している。
本稿では,BPの制約を回避するために,実効的なレイヤワイドローカルフォワードトレーニングを行うForwardGNNを提案する。
論文 参考訳(メタデータ) (2024-03-16T19:40:35Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Universal Deep GNNs: Rethinking Residual Connection in GNNs from a Path
Decomposition Perspective for Preventing the Over-smoothing [50.242926616772515]
近年の研究では、残りの結合を持つGNNが変性をわずかに遅らせていることが示されている。
本稿では,新しい経路分解の観点からの残差接続を有するGNNの前方・後方挙動について検討する。
コールドスタート適応残差接続(DRIVE)とフィードフォワードモジュールを備えたUniversal Deep GNNsフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-30T14:19:45Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。