論文の概要: Predicting the generalization gap in neural networks using topological
data analysis
- arxiv url: http://arxiv.org/abs/2203.12330v2
- Date: Sat, 12 Aug 2023 09:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 23:36:11.722471
- Title: Predicting the generalization gap in neural networks using topological
data analysis
- Title(参考訳): トポロジカルデータ解析によるニューラルネットワークの一般化ギャップの予測
- Authors: Rub\'en Ballester, Xavier Arnal Clemente, Carles Casacuberta, Meysam
Madadi, Ciprian A. Corneanu, Sergio Escalera
- Abstract要約: トポロジカルデータ解析の手法を用いて,ニューラルネットワークの一般化ギャップについて検討する。
トレーニング後のニューロン活性化相関から構築した重み付きグラフのホモロジー永続図を計算する。
持続性図から異なる数値要約の有用性を比較し、それらの組み合わせによって、テストセットを必要とせずに、その一般化ギャップを正確に予測し、部分的に説明できることを示す。
- 参考スコア(独自算出の注目度): 33.511371257571504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how neural networks generalize on unseen data is crucial for
designing more robust and reliable models. In this paper, we study the
generalization gap of neural networks using methods from topological data
analysis. For this purpose, we compute homological persistence diagrams of
weighted graphs constructed from neuron activation correlations after a
training phase, aiming to capture patterns that are linked to the
generalization capacity of the network. We compare the usefulness of different
numerical summaries from persistence diagrams and show that a combination of
some of them can accurately predict and partially explain the generalization
gap without the need of a test set. Evaluation on two computer vision
recognition tasks (CIFAR10 and SVHN) shows competitive generalization gap
prediction when compared against state-of-the-art methods.
- Abstract(参考訳): ニューラルネットワークが見えないデータをどのように一般化するかを理解することは、より堅牢で信頼性の高いモデルの設計に不可欠である。
本稿では,トポロジカルデータ解析の手法を用いたニューラルネットワークの一般化ギャップについて検討する。
この目的のために、トレーニングフェーズ後にニューロン活性化相関から構築された重み付きグラフのホモロジー永続図を計算し、ネットワークの一般化能力に関連するパターンを捉えることを目的とした。
パーシステンスダイアグラムからの異なる数値要約の有用性を比較し,それらの組み合わせによって,テスト集合を必要とせずに一般化ギャップを正確に予測し,部分的に説明できることを示す。
2つのコンピュータビジョン認識タスク(CIFAR10とSVHN)の評価は、最先端の手法と比較した場合の競合一般化ギャップ予測を示す。
関連論文リスト
- Generalization Error of Graph Neural Networks in the Mean-field Regime [10.35214360391282]
グラフ畳み込みニューラルネットワークとメッセージパッシンググラフニューラルネットワークという,広く利用されている2種類のグラフニューラルネットワークについて検討する。
我々の新しいアプローチは、これらのグラフニューラルネットワークの一般化誤差を評価する平均場内上限を導出することである。
論文 参考訳(メタデータ) (2024-02-10T19:12:31Z) - On Discprecncies between Perturbation Evaluations of Graph Neural
Network Attributions [49.8110352174327]
我々は、グラフ領域で以前に検討されていない視点から帰属法を評価する:再学習。
中心となる考え方は、属性によって識別される重要な(あるいは重要でない)関係でネットワークを再訓練することである。
我々は4つの最先端GNN属性法と5つの合成および実世界のグラフ分類データセットについて分析を行った。
論文 参考訳(メタデータ) (2024-01-01T02:03:35Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Generalization bound for estimating causal effects from observational
network data [25.055822137402746]
ネットワークシナリオにおける因果効果推定のための一般化法を導出する。1) 連立確率スコアに基づく再重み付けスキーマ,2) 積分確率メトリック(IPM)に基づく表現学習スキーマ。
そこで本研究では,表現学習で強化した関節適合度スコアに基づく重み付け回帰法を提案する。
論文 参考訳(メタデータ) (2023-08-08T03:14:34Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Homophily modulates double descent generalization in graph convolution
networks [33.703222768801574]
グラフノイズ,特徴雑音,トレーニングラベル数との相互作用によって,リスクがどのように形成されるかを示す。
我々は解析的洞察を用いて、異種データセット上での最先端グラフ畳み込みネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2022-12-26T09:57:09Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。