論文の概要: Trainability for Universal GNNs Through Surgical Randomness
- arxiv url: http://arxiv.org/abs/2112.04314v1
- Date: Wed, 8 Dec 2021 14:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 13:48:24.918904
- Title: Trainability for Universal GNNs Through Surgical Randomness
- Title(参考訳): 外科的ランダム性によるユニバーサルgnnのトレーサビリティ
- Authors: Billy Joe Franks, Markus Anders, Marius Kloft, Pascal Schweitzer
- Abstract要約: メッセージパッシングニューラルネットワーク(MPNN)には証明可能な制限があり、ユニバーサルネットワークによって克服できる。
我々は、普遍性と訓練可能性の問題を克服するために、パーソナライズ・リファインメント・ノード(IRNI)を開発した。
- 参考スコア(独自算出の注目度): 9.293579452922094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing neural networks (MPNN) have provable limitations, which can
be overcome by universal networks. However, universal networks are typically
impractical. The only exception is random node initialization (RNI), a data
augmentation method that results in provably universal networks. Unfortunately,
RNI suffers from severe drawbacks such as slow convergence and high sensitivity
to changes in hyperparameters. We transfer powerful techniques from the
practical world of graph isomorphism testing to MPNNs, resolving these
drawbacks. This culminates in individualization-refinement node initialization
(IRNI). We replace the indiscriminate and haphazard randomness used in RNI by a
surgical incision of only a few random bits at well-selected nodes. Our novel
non-intrusive data-augmentation scheme maintains the networks' universality
while resolving the trainability issues. We formally prove the claimed
universality and corroborate experimentally -- on synthetic benchmarks sets
previously explicitly designed for that purpose -- that IRNI overcomes the
limitations of MPNNs. We also verify the practical efficacy of our approach on
the standard benchmark data sets PROTEINS and NCI1.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(MPNN)には証明可能な制限があり、ユニバーサルネットワークによって克服できる。
しかし、ユニバーサルネットワークは通常実用的ではない。
唯一の例外はランダムノード初期化(rni, random node initialization)である。
残念ながら、RNIは緩やかな収束やハイパーパラメータの変化に対する高い感度といった深刻な欠点に悩まされている。
グラフ同型テストの実践的世界からMPNNに強力なテクニックを移行し,これらの欠点を解消する。
これにより、パーソナライゼーション・リファインメントノードの初期化(IRNI)が達成される。
RNIで用いられる無差別・ハファザードランダム性は、選択されたノード数ビットのみの外科的切開によって置き換える。
提案手法は,ネットワークの普遍性を維持しつつ,学習可能性の問題を解消する。
我々は、IRNIがMPNNの制限を克服しているという主張の普遍性を正式に証明し、実験的に裏付ける。
また,標準ベンチマークデータセット PROTEINS と NCI1 に対して,本手法の有効性を検証した。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - How (Implicit) Regularization of ReLU Neural Networks Characterizes the
Learned Function -- Part II: the Multi-D Case of Two Layers with Random First
Layer [2.1485350418225244]
本稿では,ReLUアクティベーションを伴うランダム化した浅層NNの一般化挙動を,正確なマクロ解析により解析する。
RSNは、無限に多くの方向が考慮される一般化加法モデル(GAM)型回帰に対応することを示す。
論文 参考訳(メタデータ) (2023-03-20T21:05:47Z) - Norm-based Generalization Bounds for Compositionally Sparse Neural
Networks [11.987589603961622]
畳み込みニューラルネットワークを含む多層スパースReLUニューラルネットワークに対する一般化境界を証明した。
これらの結果から, 深いニューラルネットワークの成功には, 対象関数の組成空間が重要であることが示唆された。
論文 参考訳(メタデータ) (2023-01-28T00:06:22Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - The Compact Support Neural Network [6.47243430672461]
本研究では, 標準ドット生成物に基づくニューロンとRBFニューロンを, 形状パラメータの2つの極端な場合として提示する。
トレーニングされた標準ニューラルネットワークから始めて、必要な値まで形状パラメータを徐々に増加させることで、そのようなニューロンによるニューラルネットワークのトレーニングの難しさを回避する方法を示す。
論文 参考訳(メタデータ) (2021-04-01T06:08:09Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - PEREGRiNN: Penalized-Relaxation Greedy Neural Network Verifier [1.1011268090482575]
我々は、ReLU NNの最も一般的な安全仕様を正式に検証するための新しいアプローチを導入する。
我々は, 線形実現可能性チェッカーとしてだけでなく, 解法で許容される緩和量のペナルティ化の手段として, 凸解法を用いる。
論文 参考訳(メタデータ) (2020-06-18T21:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。