論文の概要: A Fairness Analysis on Private Aggregation of Teacher Ensembles
- arxiv url: http://arxiv.org/abs/2109.08630v1
- Date: Fri, 17 Sep 2021 16:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:45:47.260099
- Title: A Fairness Analysis on Private Aggregation of Teacher Ensembles
- Title(参考訳): 教師アンサンブルのプライベートアグリゲーションに関する公平性分析
- Authors: Cuong Tran, My H. Dinh, Kyle Beiter, Ferdinando Fioretto
- Abstract要約: PATE(Private Aggregation of Teacher Ensembles)は、機械学習の重要なフレームワークである。
本稿では、このプライバシー保護フレームワークが偏見と不公平を増すか否かを問う。
PATEは個人と個人のグループ間で精度の相違をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 31.388212637482365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Private Aggregation of Teacher Ensembles (PATE) is an important private
machine learning framework. It combines multiple learning models used as
teachers for a student model that learns to predict an output chosen by noisy
voting among the teachers. The resulting model satisfies differential privacy
and has been shown effective in learning high-quality private models in
semisupervised settings or when one wishes to protect the data labels.
This paper asks whether this privacy-preserving framework introduces or
exacerbates bias and unfairness and shows that PATE can introduce accuracy
disparity among individuals and groups of individuals. The paper analyzes which
algorithmic and data properties are responsible for the disproportionate
impacts, why these aspects are affecting different groups disproportionately,
and proposes guidelines to mitigate these effects. The proposed approach is
evaluated on several datasets and settings.
- Abstract(参考訳): PATE(Private Aggregation of Teacher Ensembles)は、機械学習の重要なフレームワークである。
教師として使用する複数の学習モデルを組み合わせることで、教師間の騒がしい投票によって選択されたアウトプットを予測する。
結果として得られたモデルは、差分プライバシーを満足し、半教師付き設定やデータラベルの保護を望む場合に、高品質なプライベートモデルを学習するのに効果的であることが示されている。
本稿では,プライバシ保護の枠組みが偏見や不公平を増すか否かを問うとともに,PATEが個人やグループ間で精度の相違をもたらすことを示す。
本稿では,アルゴリズムやデータ特性が不均等な影響の原因となっているか,なぜ異なるグループに不均等に影響を与えているのかを分析し,これらの影響を緩和するためのガイドラインを提案する。
提案手法はいくつかのデータセットと設定で評価される。
関連論文リスト
- Hot PATE: Private Aggregation of Distributions for Diverse Task [29.057736845077457]
PATE(Private Aggregation of Teacher Ensembles)は、プライバシ保護機械学習における汎用的なアプローチである。
我々は,多種多様な設定に適したEmphhot PATEを提案する。
解析的かつ実証的に、ホットPATEはプライバシとユーティリティのトレードオフを達成し、多様な設定において、ベースラインコールドのPATEをはるかに上回っていることを実証します。
論文 参考訳(メタデータ) (2023-12-04T18:54:34Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - On the Fairness Impacts of Private Ensembles Models [44.15285550981899]
Private Aggregation of Teacher Ensembles (PATE)は、プライベートモデルの作成を可能にする機械学習フレームワークである。
本稿は、PATEの使用が不公平な結果をもたらすかどうかを考察し、個人間での精度格差につながることを実証する。
論文 参考訳(メタデータ) (2023-05-19T16:43:53Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Differentially Private Deep Learning under the Fairness Lens [34.28936739262812]
微分プライバシー(DP)は、プライベート機械学習システムにとって重要なプライバシー強化技術である。
計算に個々の参加に伴うリスクを計測し、バウンドすることができる。
近年,DP学習システムは,個人集団の偏見や不公平性を悪化させる可能性が指摘されている。
論文 参考訳(メタデータ) (2021-06-04T19:10:09Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Neither Private Nor Fair: Impact of Data Imbalance on Utility and
Fairness in Differential Privacy [5.416049433853457]
本研究では,データの不均衡レベルの違いが,モデルによる決定の正確性と公平性に与える影響について検討する。
私たちは、小さな不均衡やプライバシー保証の緩やかささえも、異なる影響を引き起こすことを実証しています。
論文 参考訳(メタデータ) (2020-09-10T18:35:49Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。