論文の概要: Recent Advances in Reliable Deep Graph Learning: Adversarial Attack,
Inherent Noise, and Distribution Shift
- arxiv url: http://arxiv.org/abs/2202.07114v1
- Date: Tue, 15 Feb 2022 00:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 16:04:53.914609
- Title: Recent Advances in Reliable Deep Graph Learning: Adversarial Attack,
Inherent Noise, and Distribution Shift
- Title(参考訳): 信頼性の高い深層グラフ学習の最近の進歩:敵対的攻撃、固有ノイズ、分布シフト
- Authors: Bingzhe Wu, Jintang Li, Chengbin Hou, Guoji Fu, Yatao Bian, Liang
Chen, Junzhou Huang
- Abstract要約: 深層グラフ学習(DGL)は、ビジネス分野と科学分野の両方において顕著な進歩を遂げている。
DGLを現実世界のアプリケーションに適用することは、敵攻撃、固有のノイズ、分散シフトなど、一連の信頼性上の脅威に直面します。
- 参考スコア(独自算出の注目度): 44.760476109210295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep graph learning (DGL) has achieved remarkable progress in both business
and scientific areas ranging from finance and e-commerce to drug and advanced
material discovery. Despite the progress, applying DGL to real-world
applications faces a series of reliability threats including adversarial
attacks, inherent noise, and distribution shift. This survey aims to provide a
comprehensive review of recent advances for improving the reliability of DGL
algorithms against the above threats. In contrast to prior related surveys
which mainly focus on adversarial attacks and defense, our survey covers more
reliability-related aspects of DGL, i.e., inherent noise and distribution
shift. Additionally, we discuss the relationships among above aspects and
highlight some important issues to be explored in future research.
- Abstract(参考訳): ディープグラフ学習(dgl)は、金融や電子商取引から薬物や高度な物質発見まで、ビジネス分野と科学分野の両方で著しく進歩した。
進歩にもかかわらず、DGLを現実世界のアプリケーションに適用することは、敵攻撃、固有のノイズ、分散シフトなど、一連の信頼性上の脅威に直面している。
本調査は,上記の脅威に対するdglアルゴリズムの信頼性向上に向けた最近の進歩を総合的に検討することを目的とする。
敵対的攻撃や防衛に重点を置く先行調査とは対照的に,本調査は,dglの信頼性に関連する側面,すなわち固有ノイズと分布シフトを対象とする。
さらに、上記の側面間の関係を議論し、今後の研究で検討すべき重要な課題をいくつか取り上げる。
関連論文リスト
- A Survey of Graph Neural Networks in Real world: Imbalance, Noise,
Privacy and OOD Challenges [75.37448213291668]
本稿では,既存のグラフニューラルネットワーク(GNN)を体系的にレビューする。
まず、既存のGNNが直面している4つの重要な課題を強調し、現実のGNNモデルを探究する道を開く。
論文 参考訳(メタデータ) (2024-03-07T13:10:37Z) - Survey on Trustworthy Graph Neural Networks: From A Causal Perspective [26.35596993740845]
グラフニューラルネットワーク(GNN)は、強力な表現学習ツールとして登場した。
GNNは信頼度に深刻な懸念を抱いている。
因果学習技術をGNNに統合することは、多くの画期的な研究を引き起こした。
論文 参考訳(メタデータ) (2023-12-19T13:26:14Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual
Learning [76.47138162283714]
蓄積とは、以前取得した情報や知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
調査では、忘れることは二重刃の剣であり、ある場合には有益で望ましいと論じている。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - A Survey of Trustworthy Graph Learning: Reliability, Explainability, and
Privacy Protection [136.71290968343826]
信頼できるグラフ学習(TwGL)は、技術的観点から上記の問題を解決することを目的としている。
モデル性能を主に重視する従来のグラフ学習研究とは対照的に、TwGLは様々な信頼性と安全性を考慮に入れている。
論文 参考訳(メタデータ) (2022-05-20T08:10:35Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - Deep Learning meets Liveness Detection: Recent Advancements and
Challenges [3.2011056280404637]
我々は,2017年以降の深部機能的FAS手法に関する文献を包括的に調査している。
本研究では,FASの時系列,進化過程,評価基準について概説する。
論文 参考訳(メタデータ) (2021-12-29T19:24:58Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。