論文の概要: FedGMark: Certifiably Robust Watermarking for Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2410.17533v1
- Date: Wed, 23 Oct 2024 03:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:54:19.499784
- Title: FedGMark: Certifiably Robust Watermarking for Federated Graph Learning
- Title(参考訳): FedGMark: フェデレーショングラフ学習のための堅牢な透かし
- Authors: Yuxin Yang, Qiang Li, Yuan Hong, Binghui Wang,
- Abstract要約: Federated Graph Learning(FedGL)は、さまざまなクライアントからグラフデータを協調的にトレーニングする、新たな学習パラダイムである。
FedGMarkは、FedGLにとって初めての堅牢なバックドアベースの透かしである。
- 参考スコア(独自算出の注目度): 27.3913014422097
- License:
- Abstract: Federated graph learning (FedGL) is an emerging learning paradigm to collaboratively train graph data from various clients. However, during the development and deployment of FedGL models, they are susceptible to illegal copying and model theft. Backdoor-based watermarking is a well-known method for mitigating these attacks, as it offers ownership verification to the model owner. We take the first step to protect the ownership of FedGL models via backdoor-based watermarking. Existing techniques have challenges in achieving the goal: 1) they either cannot be directly applied or yield unsatisfactory performance; 2) they are vulnerable to watermark removal attacks; and 3) they lack of formal guarantees. To address all the challenges, we propose FedGMark, the first certified robust backdoor-based watermarking for FedGL. FedGMark leverages the unique graph structure and client information in FedGL to learn customized and diverse watermarks. It also designs a novel GL architecture that facilitates defending against both the empirical and theoretically worst-case watermark removal attacks. Extensive experiments validate the promising empirical and provable watermarking performance of FedGMark. Source code is available at: https://github.com/Yuxin104/FedGMark.
- Abstract(参考訳): Federated Graph Learning(FedGL)は、さまざまなクライアントからグラフデータを協調的にトレーニングする、新たな学習パラダイムである。
しかし、FedGLモデルの開発とデプロイの間は、違法コピーやモデル盗難の影響を受けやすい。
バックドアベースの透かしは、モデル所有者にオーナシップ検証を提供するため、これらの攻撃を緩和するためのよく知られた方法である。
バックドアベースの透かしによってFedGLモデルの所有権を保護するための第一歩を踏み出します。
既存のテクニックには、目標を達成する上での課題があります。
1) 直接適用することができないか,又は不満足な性能を得ることができない。
2 透かし除去攻撃に弱いこと、及び
3)正式な保証がない。
これらの課題に対処するため、我々はFedGLのための初の堅牢なバックドアベースの透かしであるFedGMarkを提案する。
FedGMarkは、カスタマイズされた多様な透かしを学ぶために、FedGLのユニークなグラフ構造とクライアント情報を活用する。
また、経験的かつ理論的に最悪のウォーターマーク除去攻撃の防御を容易にする新しいGLアーキテクチャも設計している。
FedGMarkの有望な経験的かつ証明可能な透かし性能を検証する。
ソースコードは、https://github.com/Yuxin104/FedGMarkで入手できる。
関連論文リスト
- Unveiling the Achilles' Heel: Backdoor Watermarking Forgery Attack in Public Dataset Protection [15.597371838613965]
バックドアの透かしは 所有権の証拠として データセット保護を再定義する
本稿では,バックドア透かしの信頼性を疑問視し,攻撃者の視点から再検討する。
偽造攻撃の問題を探索することにより、データセットのオーナシップ検証プロセスの固有の欠陥を明らかにする。
論文 参考訳(メタデータ) (2024-11-23T04:39:52Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - Watermark Stealing in Large Language Models [2.1165011830664673]
本研究では,透かし付きLLMのAPIをほぼリバースエンジニアリングにクエリすることで,実用的なスプーフィング攻撃を可能にすることを示す。
私たちは、自動化されたWSアルゴリズムを初めて提案し、それを、現実的な環境でのスプーフィングとスクラブの最初の包括的な研究で使用します。
論文 参考訳(メタデータ) (2024-02-29T17:12:39Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - FedTracker: Furnishing Ownership Verification and Traceability for
Federated Learning Model [33.03362469978148]
Federated Learning(FL)は、複数のクライアントがローカルデータを共有せずにグローバルモデルを共同でトレーニングできる分散機械学習パラダイムである。
これにより、悪意のあるクライアントによる不正なモデル配布や再販のリスクが生じ、FLグループの知的財産権が損なわれる。
オーナシップ検証とトレーサビリティの両方を提供する最初のFLモデル保護フレームワークであるFedTrackerを紹介します。
論文 参考訳(メタデータ) (2022-11-14T07:40:35Z) - SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained
Encoders [9.070481370120905]
プリトレーニングエンコーダのための最初の透かしアルゴリズムであるSSLGuardを提案する。
SSLGuardはウォーターマーク注入と検証に有効であり、モデル盗難やその他のウォーターマーク除去攻撃に対して堅牢である。
論文 参考訳(メタデータ) (2022-01-27T17:41:54Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。