論文の概要: Comments on "Privacy-Enhanced Federated Learning Against Poisoning Adversaries"
- arxiv url: http://arxiv.org/abs/2409.19964v1
- Date: Mon, 30 Sep 2024 05:34:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 16:37:45.602296
- Title: Comments on "Privacy-Enhanced Federated Learning Against Poisoning Adversaries"
- Title(参考訳): プロプライバシー強化型フェデレーション・ラーニング」へのコメント
- Authors: Thomas Schneider, Ajith Suresh, Hossein Yalame,
- Abstract要約: PEFLはプライバシーを保護していない。
PEFLは、参加するエンティティの1つに対して、すべてのユーザの勾配ベクトル全体を明らかにする。
- 参考スコア(独自算出の注目度): 16.01519873155423
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In August 2021, Liu et al. (IEEE TIFS'21) proposed a privacy-enhanced framework named PEFL to efficiently detect poisoning behaviours in Federated Learning (FL) using homomorphic encryption. In this article, we show that PEFL does not preserve privacy. In particular, we illustrate that PEFL reveals the entire gradient vector of all users in clear to one of the participating entities, thereby violating privacy. Furthermore, we clearly show that an immediate fix for this issue is still insufficient to achieve privacy by pointing out multiple flaws in the proposed system. Note: Although our privacy issues mentioned in Section II have been published in January 2023 (Schneider et. al., IEEE TIFS'23), several subsequent papers continued to reference Liu et al. (IEEE TIFS'21) as a potential solution for private federated learning. While a few works have acknowledged the privacy concerns we raised, several of subsequent works either propagate these errors or adopt the constructions from Liu et al. (IEEE TIFS'21), thereby unintentionally inheriting the same privacy vulnerabilities. We believe this oversight is partly due to the limited visibility of our comments paper at TIFS'23 (Schneider et. al., IEEE TIFS'23). Consequently, to prevent the continued propagation of the flawed algorithms in Liu et al. (IEEE TIFS'21) into future research, we also put this article to an ePrint.
- Abstract(参考訳): 2021年8月、Liu et al(IEEE TIFS'21)はPEFLというプライバシー強化フレームワークを提案した。
本稿では,PEFLがプライバシを保護していないことを示す。
特に、PEFLは、すべてのユーザの勾配ベクトル全体を、参加するエンティティの1つに明確に公開し、それによってプライバシーを侵害する。
さらに,この問題の即時修正は,提案システムにおける複数の欠陥を指摘することによって,プライバシの達成にはまだ不十分であることを示す。
注: 第2節で言及されているプライバシー問題は2023年1月に公表されている(Schneider et al , IEEE TIFS'23)が、その後のいくつかの論文では、Liu et al (IEEE TIFS'21) を民間の連邦学習の潜在的な解決策として言及し続けている。
いくつかの研究は、私たちが提起したプライバシー上の懸念を認めていますが、その後のいくつかの研究は、これらのエラーを広めるか、Liu et al (IEEE TIFS'21) による構築を採用し、故意に同じプライバシー上の脆弱性を継承します。
この監視は、TIFS'23(Schneider et al , IEEE TIFS'23)での私たちのコメント論文の可視性に一部原因があると考えています。
その結果, Liu et al (IEEE TIFS'21) における欠陥のあるアルゴリズムの今後の研究への継続的な伝播を防止するため, 本論文をePrintに掲載した。
関連論文リスト
- Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Federated Learning Privacy: Attacks, Defenses, Applications, and Policy Landscape - A Survey [27.859861825159342]
ディープラーニングは、さまざまなタスクにおいて、信じられないほど大きな可能性を秘めている。
プライバシーに関する最近の懸念は、そのようなデータにアクセスする際の課題をさらに強調している。
フェデレーション学習は重要なプライバシー保護技術として登場した。
論文 参考訳(メタデータ) (2024-05-06T16:55:20Z) - Auditing Private Prediction [45.23153167486169]
PATE, CaPC, PromptPATE, Private-kNNの4つのプライベート予測アルゴリズムのプライバシー漏洩について検討した。
実験の結果, (i) プライベート予測のプライバシー分析は改善され, (ii) 有害なアルゴリズムは, はるかに高いプライバシー侵害を引き起こし, (iii) プライバシー漏洩は, クエリ制御のない敵に対して, 完全制御のアルゴリズムよりも有意に低いことがわかった。
論文 参考訳(メタデータ) (2024-02-14T18:59:27Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - How reparametrization trick broke differentially-private text
representation leaning [2.45626162429986]
差分プライバシーは、NLPにおけるプライバシ保護手法に対するお気に入りのアプローチの1つである。
その単純さにもかかわらず、NLPに適用するときに正しく行うのは簡単ではないように思える。
私たちの主な目標は、認識を高め、コミュニティがテキスト表現学習に差分プライバシーを適用する際の潜在的な落とし穴を理解するのを支援することです。
論文 参考訳(メタデータ) (2022-02-24T15:02:42Z) - Privacy Policies Across the Ages: Content and Readability of Privacy
Policies 1996--2021 [1.5229257192293197]
透明性研究、機械学習、自然言語処理の手法を用いて、プライバシーポリシーの25年の歴史を分析した。
1996年から2021年までの大規模なプライバシーポリシーの長期コーパスを収集する。
我々の結果は、特に新しい規制が施行された後、政策が長く読みにくくなっていることを示している。
論文 参考訳(メタデータ) (2022-01-21T15:13:02Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。