論文の概要: A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges
- arxiv url: http://arxiv.org/abs/2403.04468v1
- Date: Thu, 7 Mar 2024 13:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:04:41.051069
- Title: A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges
- Title(参考訳): 実世界のグラフニューラルネットワークに関するサーベイ:不均衡,ノイズ,プライバシ,OOD問題
- Authors: Wei Ju, Siyu Yi, Yifan Wang, Zhiping Xiao, Zhengyang Mao, Hourun Li,
Yiyang Gu, Yifang Qin, Nan Yin, Senzhang Wang, Xinwang Liu, Xiao Luo, Philip
S. Yu, Ming Zhang
- Abstract要約: 本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
- 参考スコア(独自算出の注目度): 75.37448213291668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-structured data exhibits universality and widespread applicability
across diverse domains, such as social network analysis, biochemistry,
financial fraud detection, and network security. Significant strides have been
made in leveraging Graph Neural Networks (GNNs) to achieve remarkable success
in these areas. However, in real-world scenarios, the training environment for
models is often far from ideal, leading to substantial performance degradation
of GNN models due to various unfavorable factors, including imbalance in data
distribution, the presence of noise in erroneous data, privacy protection of
sensitive information, and generalization capability for out-of-distribution
(OOD) scenarios. To tackle these issues, substantial efforts have been devoted
to improving the performance of GNN models in practical real-world scenarios,
as well as enhancing their reliability and robustness. In this paper, we
present a comprehensive survey that systematically reviews existing GNN models,
focusing on solutions to the four mentioned real-world challenges including
imbalance, noise, privacy, and OOD in practical scenarios that many existing
reviews have not considered. Specifically, we first highlight the four key
challenges faced by existing GNNs, paving the way for our exploration of
real-world GNN models. Subsequently, we provide detailed discussions on these
four aspects, dissecting how these solutions contribute to enhancing the
reliability and robustness of GNN models. Last but not least, we outline
promising directions and offer future perspectives in the field.
- Abstract(参考訳): グラフ構造データは、ソーシャルネットワーク分析、生化学、金融不正検出、ネットワークセキュリティなど、さまざまなドメインにまたがる普遍性と広範な適用性を示す。
グラフニューラルネットワーク(GNN)を活用することで、これらの分野で大きな成功を収めている。
しかしながら、実世界のシナリオでは、モデルのトレーニング環境は理想とは程遠いことが多く、データ分散の不均衡、誤ったデータにおけるノイズの存在、機密情報のプライバシ保護、分散(ood)シナリオの一般化など、さまざまな不利な要因により、gnnモデルの実質的なパフォーマンス低下につながる。
これらの問題に対処するため、現実のシナリオにおけるgnnモデルの性能向上と信頼性と堅牢性の向上に多大な努力が費やされてきた。
本稿では,既存のGNNモデルを体系的にレビューする包括的調査を行い,多くの既存レビューが考慮していない実践シナリオにおいて,不均衡,ノイズ,プライバシ,OODを含む実世界の課題に対する解決策に焦点を当てた。
具体的には、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探索する道を開く。
その後、これらの4つの側面について詳細な議論を行い、これらのソリューションがGNNモデルの信頼性と堅牢性の向上にどのように貢献するかを論じる。
最後に重要なことは、将来的な方向性を概説し、将来的な展望を提供することです。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Survey on Trustworthy Graph Neural Networks: From A Causal Perspective [26.35596993740845]
グラフニューラルネットワーク(GNN)は、強力な表現学習ツールとして登場した。
GNNは信頼度に深刻な懸念を抱いている。
因果学習技術をGNNに統合することは、多くの画期的な研究を引き起こした。
論文 参考訳(メタデータ) (2023-12-19T13:26:14Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - gRoMA: a Tool for Measuring the Global Robustness of Deep Neural
Networks [3.2228025627337864]
ディープニューラルネットワーク(DNN)は最先端技術の最前線にあり、さまざまな複雑なタスクにおいて顕著なパフォーマンスを実現している。
航空宇宙分野や自動車分野などの安全クリティカルシステムへの統合は、敵の入力の脅威のために大きな課題となる。
本稿では,DNNのグローバルな分類的ロバスト性を測定するための確率論的アプローチを実装した,革新的でスケーラブルなツールであるgRoMAを紹介する。
論文 参考訳(メタデータ) (2023-01-05T20:45:23Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。