論文の概要: Intellectual Property in Graph-Based Machine Learning as a Service: Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2508.19641v1
- Date: Wed, 27 Aug 2025 07:37:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.545384
- Title: Intellectual Property in Graph-Based Machine Learning as a Service: Attacks and Defenses
- Title(参考訳): グラフベース機械学習・アズ・ア・サービスにおける知的特性:攻撃と防御
- Authors: Lincan Li, Bolin Shen, Chenxi Zhao, Yuxiang Sun, Kaixiang Zhao, Shirui Pan, Yushun Dong,
- Abstract要約: この調査は、GMLモデルとグラフ構造化データの両方のレベルで、脅威と防御の最初の分類を体系的に導入する。
本稿では,IP保護手法の有効性を評価し,ベンチマークデータセットのキュレートしたセットを導入し,その適用範囲と今後の課題について論じるシステム評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 57.9371204326855
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph-structured data, which captures non-Euclidean relationships and interactions between entities, is growing in scale and complexity. As a result, training state-of-the-art graph machine learning (GML) models have become increasingly resource-intensive, turning these models and data into invaluable Intellectual Property (IP). To address the resource-intensive nature of model training, graph-based Machine-Learning-as-a-Service (GMLaaS) has emerged as an efficient solution by leveraging third-party cloud services for model development and management. However, deploying such models in GMLaaS also exposes them to potential threats from attackers. Specifically, while the APIs within a GMLaaS system provide interfaces for users to query the model and receive outputs, they also allow attackers to exploit and steal model functionalities or sensitive training data, posing severe threats to the safety of these GML models and the underlying graph data. To address these challenges, this survey systematically introduces the first taxonomy of threats and defenses at the level of both GML model and graph-structured data. Such a tailored taxonomy facilitates an in-depth understanding of GML IP protection. Furthermore, we present a systematic evaluation framework to assess the effectiveness of IP protection methods, introduce a curated set of benchmark datasets across various domains, and discuss their application scopes and future challenges. Finally, we establish an open-sourced versatile library named PyGIP, which evaluates various attack and defense techniques in GMLaaS scenarios and facilitates the implementation of existing benchmark methods. The library resource can be accessed at: https://labrai.github.io/PyGIP. We believe this survey will play a fundamental role in intellectual property protection for GML and provide practical recipes for the GML community.
- Abstract(参考訳): 非ユークリッド関係とエンティティ間の相互作用をキャプチャするグラフ構造化データは、スケールと複雑さが増している。
結果として、最先端のグラフ機械学習(GML)モデルのトレーニングはリソース集約化が進み、これらのモデルとデータを貴重な知的財産権(IP)に変換する。
モデルトレーニングのリソース集約的な性質に対処するため、グラフベースのMachine-Learning-as-Service(GMLaaS)が、モデル開発と管理にサードパーティのクラウドサービスを活用することで、効率的なソリューションとして登場した。
しかしながら、そのようなモデルをGMLaaSにデプロイすることで、攻撃者からの潜在的な脅威にさらされる。
具体的には、GMLaaSシステム内のAPIは、モデルをクエリしてアウトプットを受け取るためのインターフェースを提供するが、攻撃者はモデル機能やセンシティブなトレーニングデータを利用して、これらのGMLモデルと基盤となるグラフデータの安全性に深刻な脅威を与えることもできる。
これらの課題に対処するため、この調査では、GMLモデルとグラフ構造化データの両方のレベルで、脅威と防御の最初の分類を体系的に導入した。
このような調整された分類は、GMLのIP保護の深い理解を促進する。
さらに、IP保護手法の有効性を評価するための体系的な評価フレームワークを提案し、様々な領域にまたがるベンチマークデータセットのキュレートセットを導入し、それらの適用範囲と今後の課題について議論する。
最後に、GMLaaSシナリオにおける様々な攻撃・防御手法を評価し、既存のベンチマークメソッドの実装を容易にするPyGIPというオープンソースの汎用ライブラリを構築した。
ライブラリリソースは、https://labrai.github.io/PyGIPでアクセスできます。
我々は,この調査がGMLの知的財産保護の基本的な役割を担い,GMLコミュニティに実践的なレシピを提供すると信じている。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Graph Representation-based Model Poisoning on Federated Large Language Models [3.5233863453805143]
フェデレートされた大規模言語モデル(FedLLMs)は、データのプライバシを保持しながら、無線ネットワーク内で強力な生成機能を実現する。
本稿では,FedLLMのモデル中毒技術と既存の防御機構の最近の進歩について概説する。
さらに、グラフ表現に基づくモデル中毒(GRMP)は、良質なクライアント勾配間の高次相関を利用して、悪意ある更新を正当なものと区別できないものにする新興攻撃パラダイムである。
論文 参考訳(メタデータ) (2025-07-02T13:20:52Z) - Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Property inference attack; Graph neural networks; Privacy attacks and
defense; Trustworthy machine learning [5.598383724295497]
機械学習モデルは、トレーニングデータに関する情報を漏洩するプライバシー攻撃に弱い。
本研究では,プロパティ推論攻撃(PIA)と呼ばれる,特定の種類のプライバシ攻撃に焦点を当てる。
我々は、グラフニューラルネットワーク(GNN)を対象モデルとし、トレーニンググラフ内の特定のノードとリンクの分布を目標特性とみなす。
論文 参考訳(メタデータ) (2022-09-02T14:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。