論文の概要: Watermarking Graph Neural Networks based on Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2110.11024v1
- Date: Thu, 21 Oct 2021 09:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 03:50:21.160341
- Title: Watermarking Graph Neural Networks based on Backdoor Attacks
- Title(参考訳): バックドア攻撃に基づく透かしグラフニューラルネットワーク
- Authors: Jing Xu, Stjepan Picek
- Abstract要約: 本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
- 参考スコア(独自算出の注目度): 10.844454900508566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved promising performance in various
real-world applications. Building a powerful GNN model is not a trivial task,
as it requires a large amount of training data, powerful computing resources,
and human expertise on fine-tuning the model. What is more, with the
development of adversarial attacks, e.g., model stealing attacks, GNNs raise
challenges to model authentication. To avoid copyright infringement on GNNs, it
is necessary to verify the ownership of the GNN models.
In this paper, we present a watermarking framework for GNNs for both graph
and node classification tasks. We 1) design two strategies to generate
watermarked data for the graph classification and one for the node
classification task, 2) embed the watermark into the host model through
training to obtain the watermarked GNN model, and 3) verify the ownership of
the suspicious model in a black-box setting. The experiments show that our
framework can verify the ownership of GNN models with a very high probability
(around $100\%$) for both tasks. In addition, we experimentally show that our
watermarking approach is still effective even when considering suspicious
models obtained from different architectures than the owner's.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有望なパフォーマンスを実現している。
強力なGNNモデルの構築は、大量のトレーニングデータ、強力なコンピューティングリソース、モデルの微調整に関する人間の専門知識を必要とするため、簡単な作業ではない。
さらに、例えばモデル盗難攻撃のような敵攻撃の開発により、GNNは認証をモデル化する課題を提起する。
GNNの著作権侵害を避けるためには、GNNモデルの所有権を検証する必要がある。
本稿では,グラフとノードの分類タスクの両方に対して,gnn用の透かしフレームワークを提案する。
私たち
1) グラフ分類のための透かしデータとノード分類タスクのための2つの戦略を設計する。
2)watermarked gnnモデルを得るためのトレーニングを通じて、watermarkをホストモデルに組み込む。
3)ブラックボックス設定で不審なモデルのオーナシップを検証する。
実験の結果,両タスクにおいて非常に高い確率(約$100\%$)でgnnモデルの所有権を検証できることがわかった。
さらに, 所有者と異なるアーキテクチャから得られた疑わしいモデルを考える場合においても, 透かし手法が有効であることを示す。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - GENIE: Watermarking Graph Neural Networks for Link Prediction [5.1323099412421636]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを利用して機械学習の分野を進歩させた。
近年の研究では、GNNはモデルスティーリング攻撃に弱いことが示されている。
透かしはGNNモデルのIPを保護するのに有効であることが示されている。
論文 参考訳(メタデータ) (2024-06-07T10:12:01Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - GrOVe: Ownership Verification of Graph Neural Networks using Embeddings [13.28269672097063]
グラフニューラルネットワーク(GNN)は、大規模グラフ構造化データから推論をモデル化および描画するための最先端のアプローチとして登場した。
以前の研究によると、GNNは抽出攻撃をモデル化する傾向がある。
GrOVeは最先端のGNNモデルフィンガープリント方式である。
論文 参考訳(メタデータ) (2023-04-17T19:06:56Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Watermarking Graph Neural Networks by Random Graphs [38.70278014164124]
GNNモデルに透かしを施す動機となるGNNモデルの所有権を保護する必要がある。
提案手法では,ランダムなノード特徴ベクトルとラベルを持つエルドス・レニー(ER)ランダムグラフを,GNNを訓練するためのトリガとしてランダムに生成する。
モデル検証において、マークされたGNNをトリガーERグラフで活性化することにより、ウォーターマークを出力から再構成してオーナシップを検証することができる。
論文 参考訳(メタデータ) (2020-11-01T14:22:48Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。