論文の概要: WAFFLE: Watermarking in Federated Learning
- arxiv url: http://arxiv.org/abs/2008.07298v3
- Date: Thu, 22 Jul 2021 10:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 03:25:28.413027
- Title: WAFFLE: Watermarking in Federated Learning
- Title(参考訳): WAFFLE:フェデレートラーニングにおける透かし
- Authors: Buse Gul Atli, Yuxi Xia, Samuel Marchal, N. Asokan
- Abstract要約: フェデレーション学習(Federated Learning)は、マシンラーニングモデルがクライアントデバイス上でトレーニングされる分散学習技術である。
我々は、フェデレート学習を用いてトレーニングされた透かしモデルに対する最初のアプローチであるWAFFLEを提案する。
WAFFLEは, 試験精度の劣化しか生じないモデルに, レジリエントな透かしを効率よく埋め込むことを示した。
- 参考スコア(独自算出の注目度): 14.598085887204805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a distributed learning technique where machine learning
models are trained on client devices in which the local training data resides.
The training is coordinated via a central server which is, typically,
controlled by the intended owner of the resulting model. By avoiding the need
to transport the training data to the central server, federated learning
improves privacy and efficiency. But it raises the risk of model theft by
clients because the resulting model is available on every client device. Even
if the application software used for local training may attempt to prevent
direct access to the model, a malicious client may bypass any such restrictions
by reverse engineering the application software. Watermarking is a well-known
deterrence method against model theft by providing the means for model owners
to demonstrate ownership of their models. Several recent deep neural network
(DNN) watermarking techniques use backdooring: training the models with
additional mislabeled data. Backdooring requires full access to the training
data and control of the training process. This is feasible when a single party
trains the model in a centralized manner, but not in a federated learning
setting where the training process and training data are distributed among
several client devices. In this paper, we present WAFFLE, the first approach to
watermark DNN models trained using federated learning. It introduces a
retraining step at the server after each aggregation of local models into the
global model. We show that WAFFLE efficiently embeds a resilient watermark into
models incurring only negligible degradation in test accuracy (-0.17%), and
does not require access to training data. We also introduce a novel technique
to generate the backdoor used as a watermark. It outperforms prior techniques,
imposing no communication, and low computational (+3.2%) overhead.
- Abstract(参考訳): フェデレーテッド・ラーニング(Federated Learning)は、機械学習モデルがローカルなトレーニングデータが存在するクライアントデバイス上でトレーニングされる分散学習技術である。
トレーニングは、通常、意図したモデル所有者によって制御される中央サーバを介して調整される。
トレーニングデータを中央サーバに転送する必要がないため、フェデレーション学習はプライバシと効率性を向上する。
しかし、すべてのクライアントデバイスでモデルが利用可能であるため、クライアントによるモデル盗難のリスクが高まる。
ローカルトレーニングに使用されるアプリケーションソフトウェアがモデルへの直接アクセスを防ごうとしても、悪意のあるクライアントはアプリケーションソフトウェアをリバースエンジニアリングすることでそのような制限を回避できる。
ウォーターマーキング(Watermarking)は、モデル所有者がモデルの所有権を実証する手段を提供することによって、モデル盗難に対するよく知られた抑止方法である。
最近のディープニューラルネットワーク(DNN)のウォーターマーキング技術ではバックドアが使用されている。
バックドアはトレーニングデータへの完全なアクセスとトレーニングプロセスの制御を必要とする。
単一のパーティが集中的な方法でモデルをトレーニングしても、トレーニングプロセスとトレーニングデータを複数のクライアントデバイスに分散するフェデレーション学習環境では実現不可能である。
本稿では,フェデレート学習を用いて学習した透かしDNNモデルに対する最初のアプローチであるWAFFLEを提案する。
ローカルモデルをグローバルモデルに集約した後に、サーバで再トレーニングするステップを導入する。
WAFFLEは,試験精度の低下(-0.17%)しか生じないモデルにレジリエントな透かしを効率よく埋め込むことができ,トレーニングデータへのアクセスを必要としないことを示す。
また,透かしとして使用するバックドアを生成する新しい手法を提案する。
従来の技術より優れており、通信を含まない、計算オーバーヘッドが低い(+3.2%)。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Unlearning with Knowledge Distillation [9.666514931140707]
フェデレートラーニング(FL)は、トレーニングプロセス中に各クライアントのデータプライバシを保護するように設計されている。
忘れられる権利に関する最近の法律では、FLモデルが各クライアントから学んだことを忘れる能力を持つことが不可欠である。
モデルから蓄積した履歴更新を減じることで,クライアントの貢献を解消する,新たなフェデレーション付きアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-01-24T03:56:20Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。