論文の概要: Safety in Graph Machine Learning: Threats and Safeguards
- arxiv url: http://arxiv.org/abs/2405.11034v1
- Date: Fri, 17 May 2024 18:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 19:36:45.775983
- Title: Safety in Graph Machine Learning: Threats and Safeguards
- Title(参考訳): グラフ機械学習における安全性 - 脅威と保護
- Authors: Song Wang, Yushun Dong, Binchi Zhang, Zihan Chen, Xingbo Fu, Yinhan He, Cong Shen, Chuxu Zhang, Nitesh V. Chawla, Jundong Li,
- Abstract要約: 社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
- 参考スコア(独自算出の注目度): 84.26643884225834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Machine Learning (Graph ML) has witnessed substantial advancements in recent years. With their remarkable ability to process graph-structured data, Graph ML techniques have been extensively utilized across diverse applications, including critical domains like finance, healthcare, and transportation. Despite their societal benefits, recent research highlights significant safety concerns associated with the widespread use of Graph ML models. Lacking safety-focused designs, these models can produce unreliable predictions, demonstrate poor generalizability, and compromise data confidentiality. In high-stakes scenarios such as financial fraud detection, these vulnerabilities could jeopardize both individuals and society at large. Therefore, it is imperative to prioritize the development of safety-oriented Graph ML models to mitigate these risks and enhance public confidence in their applications. In this survey paper, we explore three critical aspects vital for enhancing safety in Graph ML: reliability, generalizability, and confidentiality. We categorize and analyze threats to each aspect under three headings: model threats, data threats, and attack threats. This novel taxonomy guides our review of effective strategies to protect against these threats. Our systematic review lays a groundwork for future research aimed at developing practical, safety-centered Graph ML models. Furthermore, we highlight the significance of safe Graph ML practices and suggest promising avenues for further investigation in this crucial area.
- Abstract(参考訳): グラフ機械学習(Graph ML)は近年,大幅な進歩を遂げている。
グラフ構造化データを処理する優れた能力によって、Graph ML技術は、金融、ヘルスケア、輸送といった重要な領域を含む、さまざまなアプリケーションで広く利用されています。
社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
したがって、これらのリスクを軽減し、それらのアプリケーションに対する公衆の信頼を高めるために、安全指向のグラフMLモデルの開発を優先することが不可欠である。
本稿では,グラフMLの安全性向上に不可欠な3つの重要な側面として,信頼性,汎用性,機密性について考察する。
我々は、モデル脅威、データ脅威、およびアタック脅威という3つの見出しの下に、各側面の脅威を分類し分析する。
この新たな分類学は、これらの脅威から保護するための効果的な戦略のレビューを導く。
我々の体系的なレビューは、実用的な安全中心のグラフMLモデルを開発することを目的とした将来の研究の基盤を定めている。
さらに、安全なグラフMLプラクティスの重要性を強調し、この重要な領域でさらなる調査を行うための有望な道を提案する。
関連論文リスト
- Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - Investigating Adversarial Attacks in Software Analytics via Machine Learning Explainability [11.16693333878553]
本研究では、ソフトウェア解析タスクにおけるMLモデルの堅牢性を測定するために、ML説明可能性と敵攻撃の関係について検討する。
6つのデータセット、3つのML説明可能性技術、7つのMLモデルを含む我々の実験は、ソフトウェア分析タスクにおいてMLモデルに対する敵攻撃を成功させるのにML説明可能性を使用することができることを示した。
論文 参考訳(メタデータ) (2024-08-07T23:21:55Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Graph Mining for Cybersecurity: A Survey [61.505995908021525]
マルウェア、スパム、侵入などのサイバー攻撃の爆発的な増加は、社会に深刻な影響をもたらした。
従来の機械学習(ML)ベースの手法は、サイバー脅威の検出に広く用いられているが、現実のサイバーエンティティ間の相関をモデル化することはほとんどない。
グラフマイニング技術の普及に伴い、サイバーエンティティ間の相関を捉え、高いパフォーマンスを達成するために、多くの研究者がこれらの手法を調査した。
論文 参考訳(メタデータ) (2023-04-02T08:43:03Z) - Privacy-preserving Graph Analytics: Secure Generation and Federated
Learning [72.90158604032194]
我々は、リッチな属性と関係を表現する重要な能力を提供するグラフデータのプライバシー保護分析に焦点を当てる。
本稿では,プライバシ保護グラフ生成とフェデレーショングラフ学習という2つの方向性について論じる。
論文 参考訳(メタデータ) (2022-06-30T18:26:57Z) - A Survey of Trustworthy Graph Learning: Reliability, Explainability, and
Privacy Protection [136.71290968343826]
信頼できるグラフ学習(TwGL)は、技術的観点から上記の問題を解決することを目的としている。
モデル性能を主に重視する従来のグラフ学習研究とは対照的に、TwGLは様々な信頼性と安全性を考慮に入れている。
論文 参考訳(メタデータ) (2022-05-20T08:10:35Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。