論文の概要: Secure Byzantine-Robust Machine Learning
- arxiv url: http://arxiv.org/abs/2006.04747v2
- Date: Sun, 18 Oct 2020 22:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:35:41.404158
- Title: Secure Byzantine-Robust Machine Learning
- Title(参考訳): セキュアなビザンチンロバスト機械学習
- Authors: Lie He and Sai Praneeth Karimireddy and Martin Jaggi
- Abstract要約: 本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
- 参考スコア(独自算出の注目度): 61.03711813598128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increasingly machine learning systems are being deployed to edge servers and
devices (e.g. mobile phones) and trained in a collaborative manner. Such
distributed/federated/decentralized training raises a number of concerns about
the robustness, privacy, and security of the procedure. While extensive work
has been done in tackling with robustness, privacy, or security individually,
their combination has rarely been studied. In this paper, we propose a secure
two-server protocol that offers both input privacy and Byzantine-robustness. In
addition, this protocol is communication-efficient, fault-tolerant and enjoys
local differential privacy.
- Abstract(参考訳): ますます多くの機械学習システムがエッジサーバやデバイス(携帯電話など)にデプロイされ、協調的に訓練されている。
このような分散/フェデレーション/分散トレーニングは、手続きの堅牢性、プライバシ、セキュリティに関する多くの懸念を引き起こす。
堅牢性、プライバシ、セキュリティを個々に扱うために広範な研究がなされているが、それらの組み合わせが研究されることはほとんどない。
本稿では,入力プライバシとビザンチン乱れの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、ローカルなディファレンシャルプライバシを享受する。
関連論文リスト
- Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning [0.0]
フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
論文 参考訳(メタデータ) (2022-11-10T05:13:08Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Towards Secure and Practical Machine Learning via Secret Sharing and
Random Permutation [12.181314740980241]
ランダムな置換と算術的秘密共有を組み合わせたプライバシー保護機械学習フレームワークを構築した。
提案手法は,最先端の暗号手法に比べて最大6倍高速で,ネットワークトラフィックを最大85%削減する。
論文 参考訳(メタデータ) (2021-08-17T06:39:59Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z) - Efficient Sparse Secure Aggregation for Federated Learning [0.20052993723676896]
我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
論文 参考訳(メタデータ) (2020-07-29T14:28:30Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。