論文の概要: ATOM: A Framework of Detecting Query-Based Model Extraction Attacks for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.16693v1
- Date: Thu, 20 Mar 2025 20:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:06.373768
- Title: ATOM: A Framework of Detecting Query-Based Model Extraction Attacks for Graph Neural Networks
- Title(参考訳): ATOM:グラフニューラルネットワークのクエリベースモデル抽出攻撃検出フレームワーク
- Authors: Zhan Cheng, Bolin Shen, Tianming Sha, Yuan Gao, Shibo Li, Yushun Dong,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフベースの機械学習・アズ・ア・サービス(GML)プラットフォームで注目を集めているが、グラフベースのモデル抽出攻撃(MEAs)に弱いままである。
GNNに適した新しいリアルタイムMEA検出フレームワークであるATOMを提案する。
ATOMはシーケンシャルモデリングと強化学習を統合して、進化する攻撃パターンを動的に検出し、$k$coreの埋め込みを利用して構造特性をキャプチャし、検出精度を向上させる。
- 参考スコア(独自算出の注目度): 18.488168353080464
- License:
- Abstract: Graph Neural Networks (GNNs) have gained traction in Graph-based Machine Learning as a Service (GMLaaS) platforms, yet they remain vulnerable to graph-based model extraction attacks (MEAs), where adversaries reconstruct surrogate models by querying the victim model. Existing defense mechanisms, such as watermarking and fingerprinting, suffer from poor real-time performance, susceptibility to evasion, or reliance on post-attack verification, making them inadequate for handling the dynamic characteristics of graph-based MEA variants. To address these limitations, we propose ATOM, a novel real-time MEA detection framework tailored for GNNs. ATOM integrates sequential modeling and reinforcement learning to dynamically detect evolving attack patterns, while leveraging $k$-core embedding to capture the structural properties, enhancing detection precision. Furthermore, we provide theoretical analysis to characterize query behaviors and optimize detection strategies. Extensive experiments on multiple real-world datasets demonstrate that ATOM outperforms existing approaches in detection performance, maintaining stable across different time steps, thereby offering a more effective defense mechanism for GMLaaS environments.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフベースの機械学習・アズ・ア・サービス(GMLaaS)プラットフォームで注目を集めているが、グラフベースのモデル抽出攻撃(MEA)に弱いままであり、敵は被害者モデルをクエリすることで代理モデルを再構築する。
透かしや指紋認証などの既存の防御機構は、リアルタイム性能の低下、回避への感受性、攻撃後の検証への依存に悩まされており、グラフベースのMEAの動的特性を扱うには不十分である。
これらの制約に対処するため、GNNに適した新しいリアルタイムMEA検出フレームワークであるATOMを提案する。
ATOMはシーケンシャルモデリングと強化学習を統合して、進化する攻撃パターンを動的に検出し、$k$-core埋め込みを利用して構造特性をキャプチャし、検出精度を向上させる。
さらに,クエリの振る舞いを特徴付ける理論解析を行い,検出戦略を最適化する。
複数の実世界のデータセットに対する大規模な実験は、ATOMが検出パフォーマンスにおいて既存のアプローチよりも優れており、異なる時間ステップで安定した状態を維持し、GMLaaS環境に対するより効果的な防御メカニズムを提供することを示している。
関連論文リスト
- Graph Defense Diffusion Model [26.41730982598055]
グラフニューラルネットワーク(GNN)は、敵攻撃に対して非常に脆弱であり、パフォーマンスを著しく低下させる可能性がある。
既存のグラフ浄化法は、攻撃されたグラフをフィルタリングすることでこの問題に対処しようとする。
グラフに対する敵攻撃を防御するための,より汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T16:18:40Z) - Evaluating the Effectiveness of Attack-Agnostic Features for Morphing Attack Detection [20.67964977754179]
モーフィング攻撃検出(MAD)における画像表現の可能性について検討する。
ガウス混合モデル(GMM)によるボナフィド特性の分布をモデル化し,抽出した特徴量と一級検出値に基づいて単純な2次線形SVMを訓練し,教師付き検出器を開発する。
以上の結果から,攻撃非依存の特徴は,ほとんどのシナリオにおいて従来の教師付き・一級検知器よりも優れた形態的攻撃を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2024-10-22T08:27:43Z) - Efficient Model-Stealing Attacks Against Inductive Graph Neural Networks [4.552065156611815]
グラフニューラルネットワーク(GNN)は、グラフ構造で組織された実世界のデータを処理するための強力なツールとして認識されている。
事前に定義されたグラフ構造に依存しないグラフ構造化データの処理を可能にするインダクティブGNNは、広範囲のアプリケーションにおいてますます重要になりつつある。
本稿では,誘導型GNNに対して教師なしモデルステアリング攻撃を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T18:01:15Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - IoTGeM: Generalizable Models for Behaviour-Based IoT Attack Detection [3.3772986620114387]
一般化性を重視したIoTネットワーク攻撃をモデル化するアプローチを提案する。
まず,機能抽出のための転がり窓のアプローチを改良し,オーバーフィッティングを低減した多段階機能選択プロセスを提案する。
次に、独立したトレインとテストデータセットを使用してモデルを構築し、テストする。
第3に、機械学習モデル、評価指標、データセットの多様なポートフォリオを使用して、方法論を厳格に評価する。
論文 参考訳(メタデータ) (2023-10-17T21:46:43Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。