論文の概要: Quality Inference in Federated Learning with Secure Aggregation
- arxiv url: http://arxiv.org/abs/2007.06236v4
- Date: Thu, 25 May 2023 12:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-27 00:43:19.090070
- Title: Quality Inference in Federated Learning with Secure Aggregation
- Title(参考訳): 安全な集合を伴うフェデレーション学習における品質推論
- Authors: Bal\'azs Pej\'o and Gergely Bicz\'ok
- Abstract要約: 安全なアグリゲーションを適用した場合でも,品質情報を推測し,特定の参加者に関連付けることができることを示す。
本研究では,誤動作の検出,トレーニング性能の安定化,参加者の個人的貢献度の測定に,推定品質情報を適用した。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning algorithms are developed both for efficiency reasons and
to ensure the privacy and confidentiality of personal and business data,
respectively. Despite no data being shared explicitly, recent studies showed
that the mechanism could still leak sensitive information. Hence, secure
aggregation is utilized in many real-world scenarios to prevent attribution to
specific participants. In this paper, we focus on the quality of individual
training datasets and show that such quality information could be inferred and
attributed to specific participants even when secure aggregation is applied.
Specifically, through a series of image recognition experiments, we infer the
relative quality ordering of participants. Moreover, we apply the inferred
quality information to detect misbehaviours, to stabilize training performance,
and to measure the individual contributions of participants.
- Abstract(参考訳): フェデレート学習アルゴリズムは効率上の理由から開発され、個人データとビジネスデータのプライバシーと機密性を保証する。
データが明示的に共有されていないにもかかわらず、最近の研究では、このメカニズムが機密情報を漏洩する可能性があることが示されている。
したがって、セキュアアグリゲーションは多くの現実世界のシナリオで使われ、特定の参加者への帰属を防ぐ。
本稿では,個別のトレーニングデータセットの品質に着目し,セキュアなアグリゲーションを適用した場合でも,その品質情報を特定の参加者に推論し,属性付けることができることを示す。
具体的には,一連の画像認識実験を通じて,参加者の相対的品質秩序を推定する。
さらに,推定された品質情報を誤動作の検出,トレーニングパフォーマンスの安定化,参加者の個人貢献度の測定に応用した。
関連論文リスト
- Shuffled Differentially Private Federated Learning for Time Series Data
Analytics [10.198481976376717]
時系列データのためのプライバシー保護フェデレーション学習アルゴリズムを開発した。
具体的には、クライアントにプライバシ保護信頼境界を拡張するために、ローカルな差分プライバシーを使用します。
また、局所的な差分プライバシーを活用することによって生じる精度低下を軽減し、プライバシーの増幅を実現するためのシャッフル手法も取り入れた。
論文 参考訳(メタデータ) (2023-07-30T10:30:38Z) - Incentivising the federation: gradient-based metrics for data selection and valuation in private decentralised training [15.233103072063951]
本研究では,個人トレーニングの参加者が共同学習モデルに最も有用なデータを選択するために,勾配情報を活用する方法について検討する。
これらの技術は、より厳密なプライバシー設定であっても、フェデレートされたクライアントに、原則化されたデータ選択のためのツールを提供することができることを示す。
論文 参考訳(メタデータ) (2023-05-04T15:44:56Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Reliability Check via Weight Similarity in Privacy-Preserving
Multi-Party Machine Learning [7.552100672006174]
我々は、データプライバシ、モデルプライバシ、マルチパーティ機械学習に関連するデータ品質の懸念に対処することに注力する。
データとモデルのプライバシーを確保しつつ、参加者のデータ品質をチェックするプライバシー保護協調学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T08:55:42Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Neither Private Nor Fair: Impact of Data Imbalance on Utility and
Fairness in Differential Privacy [5.416049433853457]
本研究では,データの不均衡レベルの違いが,モデルによる決定の正確性と公平性に与える影響について検討する。
私たちは、小さな不均衡やプライバシー保証の緩やかささえも、異なる影響を引き起こすことを実証しています。
論文 参考訳(メタデータ) (2020-09-10T18:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。