論文の概要: CITED: A Decision Boundary-Aware Signature for GNNs Towards Model Extraction Defense
- arxiv url: http://arxiv.org/abs/2602.20418v1
- Date: Mon, 23 Feb 2026 23:33:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.551046
- Title: CITED: A Decision Boundary-Aware Signature for GNNs Towards Model Extraction Defense
- Title(参考訳): CITED:モデル抽出防衛に向けたGNNのための決定境界対応署名
- Authors: Bolin Shen, Md Shamim Seraj, Zhan Cheng, Shayok Chakraborty, Yushun Dong,
- Abstract要約: モデル抽出攻撃(MEA)と呼ばれる新たな脅威は、重大なリスクをもたらす。
本稿では,組込みとラベルの両レベルでのオーナシップ検証を実現するための,第1世代のオーナシップ検証フレームワークCITEDを提案する。
- 参考スコア(独自算出の注目度): 17.36953954069976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have demonstrated superior performance in various applications, such as recommendation systems and financial risk management. However, deploying large-scale GNN models locally is particularly challenging for users, as it requires significant computational resources and extensive property data. Consequently, Machine Learning as a Service (MLaaS) has become increasingly popular, offering a convenient way to deploy and access various models, including GNNs. However, an emerging threat known as Model Extraction Attacks (MEAs) presents significant risks, as adversaries can readily obtain surrogate GNN models exhibiting similar functionality. Specifically, attackers repeatedly query the target model using subgraph inputs to collect corresponding responses. These input-output pairs are subsequently utilized to train their own surrogate models at minimal cost. Many techniques have been proposed to defend against MEAs, but most are limited to specific output levels (e.g., embedding or label) and suffer from inherent technical drawbacks. To address these limitations, we propose a novel ownership verification framework CITED which is a first-of-its-kind method to achieve ownership verification on both embedding and label levels. Moreover, CITED is a novel signature-based method that neither harms downstream performance nor introduces auxiliary models that reduce efficiency, while still outperforming all watermarking and fingerprinting approaches. Extensive experiments demonstrate the effectiveness and robustness of our CITED framework. Code is available at: https://github.com/LabRAI/CITED.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、レコメンデーションシステムや金融リスク管理など、さまざまなアプリケーションにおいて優れたパフォーマンスを示している。
しかし、大規模なGNNモデルをローカルにデプロイすることは、大きな計算資源と広範なプロパティデータを必要とするため、特にユーザにとって困難である。
その結果、MLaaS(Machine Learning as a Service)が人気を博し、GNNを含むさまざまなモデルのデプロイとアクセスに便利な手段を提供するようになった。
しかし、モデル抽出攻撃 (MEAs) と呼ばれる新たな脅威は、敵が類似機能を示すGNNモデルのサロゲートを容易に取得できるため、重大なリスクをもたらす。
具体的には、攻撃者はサブグラフ入力を使用してターゲットモデルに繰り返し問い合わせ、対応する応答を収集する。
これらの入出力ペアはその後、最小限のコストで独自のサロゲートモデルをトレーニングするために使用される。
MEAに対して多くの技術が提案されているが、そのほとんどは特定の出力レベル(例えば埋め込みやラベル)に限定されており、固有の技術的欠点に悩まされている。
このような制約に対処するため,組込みとラベルの両レベルでのオーナシップ検証を実現するための,先進的な手法であるCITEDを提案する。
さらにCITEDは、下流のパフォーマンスを損なわず、効率を低下させる補助モデルも導入しない、新しいシグネチャベースの手法である。
大規模な実験は、CITEDフレームワークの有効性と堅牢性を示しています。
コードは、https://github.com/LabRAI/CITED.comで入手できる。
関連論文リスト
- CREDIT: Certified Ownership Verification of Deep Neural Networks Against Model Extraction Attacks [54.04030169323115]
我々は、モデル抽出攻撃(MEA)に対する認証された所有権検証であるCREDITを紹介する。
DNNモデル間の類似性を定量化し、実用的な検証しきい値を提案し、このしきい値に基づいてオーナシップ検証を行うための厳密な理論的保証を提供する。
我々は、さまざまなドメインやタスクにまたがるいくつかの主流データセットに対するアプローチを広範囲に評価し、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2026-02-23T23:36:25Z) - CEGA: A Cost-Effective Approach for Graph-Based Model Extraction and Acquisition [12.65757526181259]
モデル抽出攻撃(MEA)に対するGNNの脆弱性を評価する。
本稿では,非常に実用的で未探索なシナリオに適したノードクエリ戦略を提案する。
本手法は,複数の学習サイクルにまたがるノード選択機構を反復的に改良する。
論文 参考訳(メタデータ) (2025-06-21T13:11:42Z) - Few Edges Are Enough: Few-Shot Network Attack Detection with Graph Neural Networks [0.0]
本稿では,偽陽性異常と実際の攻撃をよりよく区別するために,Few Edges Are Enough (FEAE)を提案する。
FEAEは2つのよく知られたネットワークデータセット上での競合性能を達成する。
論文 参考訳(メタデータ) (2025-01-28T14:07:52Z) - IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks [68.6374698896505]
グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:59:59Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。