論文の概要: On the Prediction Instability of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2205.10070v1
- Date: Fri, 20 May 2022 10:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:06:44.421772
- Title: On the Prediction Instability of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの予測不安定性について
- Authors: Max Klabunde, Florian Lemmerich
- Abstract要約: トレーニングされたモデルの不安定性は、マシンラーニングシステムの信頼性、信頼性、信頼性に影響を与える可能性がある。
最新のグラフニューラルネットワーク(GNN)によるノード分類の不安定性の予測を系統的に評価する。
不正に分類されたノードの最大3分の1は、アルゴリズムの実行によって異なることがわかった。
- 参考スコア(独自算出の注目度): 2.3605348648054463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instability of trained models, i.e., the dependence of individual node
predictions on random factors, can affect reproducibility, reliability, and
trust in machine learning systems. In this paper, we systematically assess the
prediction instability of node classification with state-of-the-art Graph
Neural Networks (GNNs). With our experiments, we establish that multiple
instantiations of popular GNN models trained on the same data with the same
model hyperparameters result in almost identical aggregated performance but
display substantial disagreement in the predictions for individual nodes. We
find that up to one third of the incorrectly classified nodes differ across
algorithm runs. We identify correlations between hyperparameters, node
properties, and the size of the training set with the stability of predictions.
In general, maximizing model performance implicitly also reduces model
instability.
- Abstract(参考訳): 訓練されたモデルの不安定性、すなわちランダムな要因に対する個々のノード予測の依存は、機械学習システムの再現性、信頼性、信頼に影響を及ぼす。
本稿では,最新のグラフニューラルネットワーク(GNN)によるノード分類の不安定性の予測を系統的に評価する。
実験により,同じモデルハイパーパラメータで同じデータに基づいてトレーニングされた一般的なgnnモデルの複数のインスタンス化が,ほぼ同一の集約性能をもたらすが,個々のノードの予測にかなりの不一致を示すことが判明した。
不正に分類されたノードの最大3分の1は、アルゴリズムの実行によって異なることがわかった。
予測の安定性を指標として,ハイパーパラメータ,ノード特性,トレーニングセットの大きさの相関関係を同定する。
一般に、モデル性能の最大化はモデルの不安定さを暗黙的に減少させる。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Conditional Shift-Robust Conformal Prediction for Graph Neural Network [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
有効性にもかかわらず、GNNは堅牢な不確実性推定を提供する能力に制限がある。
本稿では,GNNに対する条件シフトロバスト(CondSR)の共形予測を提案する。
論文 参考訳(メタデータ) (2024-05-20T11:47:31Z) - Distilling Influences to Mitigate Prediction Churn in Graph Neural
Networks [4.213427823201119]
類似した性能を持つモデルは、予測チャーンと呼ばれる個々のサンプルの予測に大きな不一致を示す。
本研究では,モデル間でノードが使用する理由の変動を定量化するために,影響差(ID)と呼ばれる新しい指標を提案する。
また、安定なノードと不安定な予測を持つノードの違いも考慮し、どちらも同じ理由で異なる理由を生かしていると仮定する。
効率的な近似法としてDropDistillation(DD)を導入する。
論文 参考訳(メタデータ) (2023-10-02T07:37:28Z) - Robust Nonparametric Hypothesis Testing to Understand Variability in
Training Neural Networks [5.8490454659691355]
本稿では,閾値決定前のネットワークの出力に基づく分類モデル間の密接度の新しい尺度を提案する。
我々の測度は、頑健な仮説テストフレームワークに基づいており、訓練されたモデルから派生した他の量に適応することができる。
論文 参考訳(メタデータ) (2023-10-01T01:44:35Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Satellite Anomaly Detection Using Variance Based Genetic Ensemble of
Neural Networks [7.848121055546167]
複数のリカレントニューラルネットワーク(RNN)からの予測の効率的なアンサンブルを用いる。
予測のために、各RNNモデルに対して最適な構造を構築する遺伝的アルゴリズム(GA)によって、各RNNを導出する。
本稿では,BNNの近似版としてモンテカルロ(MC)ドロップアウトを用いる。
論文 参考訳(メタデータ) (2023-02-10T22:09:00Z) - How to Combine Variational Bayesian Networks in Federated Learning [0.0]
フェデレートラーニングにより、複数のデータセンターが機密データを公開することなく、協力的に中央モデルをトレーニングできる。
決定論的モデルは高い予測精度を達成することができ、キャリブレーションの欠如と不確実性を定量化する能力は、安全クリティカルなアプリケーションには問題となる。
変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
論文 参考訳(メタデータ) (2022-06-22T07:53:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。