論文の概要: Controlled privacy leakage propagation throughout overlapping grouped learning
- arxiv url: http://arxiv.org/abs/2503.04054v1
- Date: Thu, 06 Mar 2025 03:14:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:59:51.091856
- Title: Controlled privacy leakage propagation throughout overlapping grouped learning
- Title(参考訳): 重なり合うグループ学習におけるプライバシー漏洩伝播の制御
- Authors: Shahrzad Kiani, Franziska Boenisch, Stark C. Draper,
- Abstract要約: フェデレートラーニング(Federated Learning、FL)は、協調学習の標準プロトコルである。
FLでは、複数の労働者が共同で共有モデルをトレーニングします。生データ自体をローカルに保ちながら、データに基づいて計算されたモデル更新を交換します。
労働者は自然に共通の関心事やプライバシーポリシーに基づいてグループを形成するため、複数の重複するグループで設定を反映するために標準FLを拡張する動機があります。
本稿では,重複するグループ内でのプライバシ保証を実現する新しい手法として,差分重複型グループ学習(DPOGL)を提案する。
- 参考スコア(独自算出の注目度): 11.599791967838481
- License:
- Abstract: Federated Learning (FL) is the standard protocol for collaborative learning. In FL, multiple workers jointly train a shared model. They exchange model updates calculated on their data, while keeping the raw data itself local. Since workers naturally form groups based on common interests and privacy policies, we are motivated to extend standard FL to reflect a setting with multiple, potentially overlapping groups. In this setup where workers can belong and contribute to more than one group at a time, complexities arise in understanding privacy leakage and in adhering to privacy policies. To address the challenges, we propose differential private overlapping grouped learning (DPOGL), a novel method to implement privacy guarantees within overlapping groups. Under the honest-but-curious threat model, we derive novel privacy guarantees between arbitrary pairs of workers. These privacy guarantees describe and quantify two key effects of privacy leakage in DP-OGL: propagation delay, i.e., the fact that information from one group will leak to other groups only with temporal offset through the common workers and information degradation, i.e., the fact that noise addition over model updates limits information leakage between workers. Our experiments show that applying DP-OGL enhances utility while maintaining strong privacy compared to standard FL setups.
- Abstract(参考訳): フェデレートラーニング(Federated Learning, FL)は、協調学習のための標準プロトコルである。
FLでは、複数の労働者が共同で共有モデルを訓練する。
彼らは、生のデータ自体をローカルに保ちながら、データに基づいて計算されたモデル更新を交換する。
労働者は自然に共通の関心事やプライバシーポリシーに基づいてグループを形成するため、複数の重複するグループで設定を反映するために標準FLを拡張する動機があります。
労働者が一度に複数のグループに属し、貢献できるこの設定では、プライバシーの漏洩を理解し、プライバシーポリシーに固執する複雑さが生じる。
そこで本研究では,重複するグループ内でのプライバシ保証を実現する新しい手法である差分プライベート重複型グループ学習(DPOGL)を提案する。
正直だが正確な脅威モデルの下では、任意の労働者間の新しいプライバシー保証を導き出す。
これらのプライバシー保証は、DP-OGLにおけるプライバシー漏洩の2つの重要な影響を記述し、定量化する: 伝搬遅延、すなわち、あるグループからの情報が、共通の労働者を通して時間的オフセットでのみ他のグループにリークするという事実、すなわち、モデル更新によるノイズ追加によって、労働者間の情報漏洩が制限されるという事実である。
実験の結果,DP-OGLの適用は,標準のFLセットアップに比べて高いプライバシーを維持しつつ,実用性を向上させることがわかった。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Social-Aware Clustered Federated Learning with Customized Privacy Preservation [38.00035804720786]
本稿では,ソーシャル・アウェア・クラスタ・フェデレーション・ラーニングの新たな手法を提案する。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができるが、個人のプライバシーを盗むことはできない。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
論文 参考訳(メタデータ) (2022-12-25T10:16:36Z) - How Much Privacy Does Federated Learning with Secure Aggregation
Guarantee? [22.7443077369789]
フェデレートラーニング(FL)は、複数のユーザに保存されたデータに対して、プライバシ保護機械学習を可能にすることへの関心が高まっている。
データはユーザのデバイスを離れることはないが、トレーニングデータに対する重要な計算がトレーニングされたローカルモデル形式で共有されるため、プライバシは保証されない。
セキュアアグリゲーション(SA)は、FLのプライバシーを守るためのフレームワークとして開発されている。
論文 参考訳(メタデータ) (2022-08-03T18:44:17Z) - Subject Granular Differential Privacy in Federated Learning [2.9439848714137447]
本稿では,各フェデレーションユーザに対して,主観レベルDPを局所的に適用する2つの新しいアルゴリズムを提案する。
我々の最初のアルゴリズムはLocalGroupDPと呼ばれ、人気のあるDP-SGDアルゴリズムにおけるグループ差分プライバシーの簡単な応用である。
第2のアルゴリズムは、トレーニングミニバッチに参加する被験者を対象とした階層的勾配平均化(HiGradAvgDP)という新しいアイデアに基づいている。
論文 参考訳(メタデータ) (2022-06-07T23:54:36Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。