論文の概要: Unharmful Backdoor-based Client-side Watermarking in Federated Learning
- arxiv url: http://arxiv.org/abs/2410.21179v1
- Date: Mon, 28 Oct 2024 16:20:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:05.176075
- Title: Unharmful Backdoor-based Client-side Watermarking in Federated Learning
- Title(参考訳): フェデレーションラーニングにおける無害なバックドアベースクライアントサイド透かし
- Authors: Kaijing Luo, Ka-Ho Chow,
- Abstract要約: Sanitizerはサーバサイドのメソッドで、クライアントに埋め込まれたバックドアが自然なクエリでトリガーされないようにする。
悪意のある透かしの使用のリスクを軽減しつつ、クライアントのコントリビューションを検証する上で、ほぼ完璧な成功を達成している。
- 参考スコア(独自算出の注目度): 4.999947975898418
- License:
- Abstract: Protecting intellectual property (IP) in federated learning (FL) is increasingly important as clients contribute proprietary data to collaboratively train models. Model watermarking, particularly through backdoor-based methods, has emerged as a popular approach for verifying ownership and contributions in deep neural networks trained via FL. By manipulating their datasets, clients can embed a secret pattern, resulting in non-intuitive predictions that serve as proof of participation, useful for claiming incentives or IP co-ownership. However, this technique faces practical challenges: client watermarks can collide, leading to ambiguous ownership claims, and malicious clients may exploit watermarks to inject harmful backdoors, jeopardizing model integrity. To address these issues, we propose Sanitizer, a server-side method that ensures client-embedded backdoors cannot be triggered on natural queries in harmful ways. It identifies subnets within client-submitted models, extracts backdoors throughout the FL process, and confines them to harmless, client-specific input subspaces. This approach not only enhances Sanitizer's efficiency but also resolves conflicts when clients use similar triggers with different target labels. Our empirical results demonstrate that Sanitizer achieves near-perfect success in verifying client contributions while mitigating the risks of malicious watermark use. Additionally, it reduces GPU memory consumption by 85% and cuts processing time by at least 5 times compared to the baseline.
- Abstract(参考訳): 統合学習(FL)における知的財産権(IP)の保護は、クライアントが協力的にモデルを訓練するために独自のデータを提供するため、ますます重要になっている。
モデルウォーターマーキング、特にバックドアベースの手法は、FLでトレーニングされたディープニューラルネットワークのオーナシップとコントリビューションを検証する一般的なアプローチとして登場した。
データセットを操作することで、クライアントは秘密のパターンを埋め込むことができ、その結果、インセンティブやIPコオーナシップを主張する上で有用な、参加の証明として機能する直感的でない予測が生まれる。
クライアントの透かしが衝突し、曖昧なオーナシップのクレームが発生し、悪意のあるクライアントは透かしを利用して有害なバックドアを注入し、モデルの整合性を阻害する。
このような問題に対処するために,クライアントが組み込んだバックドアを有害な方法で自然クエリーでトリガーできないようにするサーバサイド手法であるSanitizerを提案する。
クライアントが送信したモデル内のサブネットを特定し、FLプロセス全体を通してバックドアを抽出し、無害なクライアント固有の入力サブスペースに閉じ込める。
このアプローチは、S sanitizerの効率を向上するだけでなく、クライアントが異なるターゲットラベルで同様のトリガを使用する場合の競合を解決する。
実験の結果,サニタイザーは悪意のある透かし使用のリスクを軽減しつつ,クライアントのコントリビューションの検証にほぼ完璧に成功していることがわかった。
さらに、GPUメモリの消費を85%削減し、ベースラインに比べて処理時間を少なくとも5倍削減する。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - BayBFed: Bayesian Backdoor Defense for Federated Learning [17.433543798151746]
フェデレートラーニング(FL)は、参加者がプライベートデータを他の人と共有することなく、機械学習モデルを共同でトレーニングすることを可能にする。
BayBFed は FL の悪意のある更新を検出するために,クライアント更新による確率分布の利用を提案する。
論文 参考訳(メタデータ) (2023-01-23T16:01:30Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。