論文の概要: Robust and Actively Secure Serverless Collaborative Learning
- arxiv url: http://arxiv.org/abs/2310.16678v1
- Date: Wed, 25 Oct 2023 14:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:12:15.794455
- Title: Robust and Actively Secure Serverless Collaborative Learning
- Title(参考訳): 堅牢でセキュアなサーバレスコラボレーション学習
- Authors: Olive Franzese, Adam Dziedzic, Christopher A. Choquette-Choo, Mark R.
Thomas, Muhammad Ahmad Kaleem, Stephan Rabanser, Congyu Fang, Somesh Jha,
Nicolas Papernot, Xiao Wang
- Abstract要約: コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
- 参考スコア(独自算出の注目度): 48.01929996757643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative machine learning (ML) is widely used to enable institutions to
learn better models from distributed data. While collaborative approaches to
learning intuitively protect user data, they remain vulnerable to either the
server, the clients, or both, deviating from the protocol. Indeed, because the
protocol is asymmetric, a malicious server can abuse its power to reconstruct
client data points. Conversely, malicious clients can corrupt learning with
malicious updates. Thus, both clients and servers require a guarantee when the
other cannot be trusted to fully cooperate. In this work, we propose a
peer-to-peer (P2P) learning scheme that is secure against malicious servers and
robust to malicious clients. Our core contribution is a generic framework that
transforms any (compatible) algorithm for robust aggregation of model updates
to the setting where servers and clients can act maliciously. Finally, we
demonstrate the computational efficiency of our approach even with 1-million
parameter models trained by 100s of peers on standard datasets.
- Abstract(参考訳): コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
ユーザデータを直感的に保護するためのコラボレーティブなアプローチは、サーバ、クライアント、あるいはその両方に対して脆弱であり、プロトコルから切り離されている。
実際、プロトコルは非対称であるため、悪意のあるサーバはクライアントデータポイントを再構築するためにそのパワーを乱用することができる。
逆に悪意のあるクライアントは、悪意のあるアップデートで学習を損なう可能性がある。
したがって、クライアントとサーバの両方が、もう一方が完全に協力できない場合に保証を必要とする。
本稿では,悪意のあるサーバに対して安全で,悪意のあるクライアントに対して堅牢なp2p学習方式を提案する。
私たちの中心となる貢献は、モデル更新の堅牢な集約のために(互換性のある)アルゴリズムをサーバとクライアントが悪意を持って行動できる設定に変換する汎用フレームワークです。
最後に、100万のピアが標準データセットでトレーニングした100万のパラメータモデルにおいても、このアプローチの計算効率を示す。
関連論文リスト
- Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。