論文の概要: Recent Advances in Reliable Deep Graph Learning: Adversarial Attack,
Inherent Noise, and Distribution Shift
- arxiv url: http://arxiv.org/abs/2202.07114v1
- Date: Tue, 15 Feb 2022 00:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 16:04:53.914609
- Title: Recent Advances in Reliable Deep Graph Learning: Adversarial Attack,
Inherent Noise, and Distribution Shift
- Title(参考訳): 信頼性の高い深層グラフ学習の最近の進歩:敵対的攻撃、固有ノイズ、分布シフト
- Authors: Bingzhe Wu, Jintang Li, Chengbin Hou, Guoji Fu, Yatao Bian, Liang
Chen, Junzhou Huang
- Abstract要約: 深層グラフ学習(DGL)は、ビジネス分野と科学分野の両方において顕著な進歩を遂げている。
DGLを現実世界のアプリケーションに適用することは、敵攻撃、固有のノイズ、分散シフトなど、一連の信頼性上の脅威に直面します。
- 参考スコア(独自算出の注目度): 44.760476109210295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep graph learning (DGL) has achieved remarkable progress in both business
and scientific areas ranging from finance and e-commerce to drug and advanced
material discovery. Despite the progress, applying DGL to real-world
applications faces a series of reliability threats including adversarial
attacks, inherent noise, and distribution shift. This survey aims to provide a
comprehensive review of recent advances for improving the reliability of DGL
algorithms against the above threats. In contrast to prior related surveys
which mainly focus on adversarial attacks and defense, our survey covers more
reliability-related aspects of DGL, i.e., inherent noise and distribution
shift. Additionally, we discuss the relationships among above aspects and
highlight some important issues to be explored in future research.
- Abstract(参考訳): ディープグラフ学習(dgl)は、金融や電子商取引から薬物や高度な物質発見まで、ビジネス分野と科学分野の両方で著しく進歩した。
進歩にもかかわらず、DGLを現実世界のアプリケーションに適用することは、敵攻撃、固有のノイズ、分散シフトなど、一連の信頼性上の脅威に直面している。
本調査は,上記の脅威に対するdglアルゴリズムの信頼性向上に向けた最近の進歩を総合的に検討することを目的とする。
敵対的攻撃や防衛に重点を置く先行調査とは対照的に,本調査は,dglの信頼性に関連する側面,すなわち固有ノイズと分布シフトを対象とする。
さらに、上記の側面間の関係を議論し、今後の研究で検討すべき重要な課題をいくつか取り上げる。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Trustworthiness of Stochastic Gradient Descent in Distributed Learning [22.41687499847953]
分散学習(DL)は、複数のノードを活用してトレーニングを加速し、大規模モデルの効率的な最適化を可能にする。
鍵となる最適化アルゴリズムであるSGDは、このプロセスにおいて中心的な役割を果たす。
通信ボトルネックはしばしばスケーラビリティと効率を制限し、これらの課題を軽減するために圧縮されたSGD技術の採用が増加する。
通信オーバーヘッドに対処しているにもかかわらず、圧縮されたSGDは、ノード間の勾配交換がグラッドインバージョン(GradInv)やメンバーシップ推論攻撃(MIA)のような攻撃に弱いため、信頼性の懸念をもたらす。
論文 参考訳(メタデータ) (2024-10-28T20:02:05Z) - A Survey of Out-of-distribution Generalization for Graph Machine Learning from a Causal View [5.651037052334014]
グラフ機械学習(GML)は、幅広いタスクでうまく適用されている。
GMLは、アウト・オブ・ディストリビューション(OOD)データを一般化する上で大きな課題に直面している。
近年の進歩は、これらの一般化の課題を克服する上で、因果関係によるアプローチの重要な役割を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-09-15T20:41:18Z) - Generative AI for Secure Physical Layer Communications: A Survey [80.0638227807621]
Generative Artificial Intelligence(GAI)は、AIイノベーションの最前線に立ち、多様なコンテンツを生成するための急速な進歩と非並行的な能力を示す。
本稿では,通信ネットワークの物理層におけるセキュリティ向上におけるGAIの様々な応用について,広範な調査を行う。
私たちは、物理的レイヤセキュリティの課題に対処する上で、GAIの役割を掘り下げ、通信の機密性、認証、可用性、レジリエンス、整合性に重点を置いています。
論文 参考訳(メタデータ) (2024-02-21T06:22:41Z) - When Graph Neural Network Meets Causality: Opportunities, Methodologies and An Outlook [23.45046265345568]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ構造化データ内の複雑な依存関係をキャプチャする強力な表現学習ツールとして登場した。
GNNは、分布シフトへの感受性、特定の人口への偏見、説明責任の欠如など、信頼性に関する深刻な懸念を提起している。
因果学習技術をGNNに統合することは、多くのGNNの信頼性の問題を軽減することができるため、多くの画期的な研究を引き起こしている。
論文 参考訳(メタデータ) (2023-12-19T13:26:14Z) - A Survey of Trustworthy Graph Learning: Reliability, Explainability, and
Privacy Protection [136.71290968343826]
信頼できるグラフ学習(TwGL)は、技術的観点から上記の問題を解決することを目的としている。
モデル性能を主に重視する従来のグラフ学習研究とは対照的に、TwGLは様々な信頼性と安全性を考慮に入れている。
論文 参考訳(メタデータ) (2022-05-20T08:10:35Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。