論文の概要: How unfair is private learning ?
- arxiv url: http://arxiv.org/abs/2206.03985v1
- Date: Wed, 8 Jun 2022 16:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 15:29:19.793345
- Title: How unfair is private learning ?
- Title(参考訳): プライベートラーニングはどの程度不公平か?
- Authors: Amartya Sanyal, Yaxi Hu, Fanny Yang
- Abstract要約: 我々は、データが長い尾構造を持つ場合、プライベートかつ公正な正確な学習アルゴリズムを構築することはできないことを示した。
全体としての正確さの緩和は、厳格なプライバシー要件があっても、良好な公正性をもたらす可能性があることを示す。
- 参考スコア(独自算出の注目度): 13.815080318918833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning algorithms are deployed on sensitive data in critical
decision making processes, it is becoming increasingly important that they are
also private and fair. In this paper, we show that, when the data has a
long-tailed structure, it is not possible to build accurate learning algorithms
that are both private and results in higher accuracy on minority
subpopulations. We further show that relaxing overall accuracy can lead to good
fairness even with strict privacy requirements. To corroborate our theoretical
results in practice, we provide an extensive set of experimental results using
a variety of synthetic, vision~(\cifar and CelebA), and tabular~(Law School)
datasets and learning algorithms.
- Abstract(参考訳): 機械学習アルゴリズムが重要な意思決定プロセスにおいてセンシティブなデータにデプロイされるにつれて、それらがプライベートで公正であることもますます重要になっている。
本稿では,ロングテール構造を持つデータでは,マイノリティ・サブポピュレーションにおいて,プライベートかつ精度の高い正確な学習アルゴリズムを構築することはできないことを示す。
さらに,全体としての正確さを緩和することは,厳格なプライバシー要件を伴っても公平性をもたらすことを証明した。
理論的結果を実践的に裏付けるために,我々は,様々な合成,視覚〜(CelebA),表〜(Law School)データセットと学習アルゴリズムを用いて,幅広い実験結果を提供する。
関連論文リスト
- Oracle-Efficient Differentially Private Learning with Public Data [21.771932463130252]
本稿では,関数クラスが非プライベートに学習可能な場合に,公開データを利用してプライベートに学習するアルゴリズムを初めて提案する。
本稿では,関数クラスが凸である場合や,タスクが二項分類である場合の特別な場合において,サンプルの複雑さを改善した特殊アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-13T23:40:50Z) - PILLAR: How to make semi-private learning more effective [12.292092677396347]
Semi-Supervised Semi-Private (SP)学習では、学習者は公開されていないラベル付きデータとプライベートラベル付きデータの両方にアクセスすることができる。
そこで本研究では,実世界のデータセット上で効率よく動作可能な,プライベートラベル付きサンプルの複雑さを著しく低減する計算効率のよいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-06T18:45:05Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - A Graph Federated Architecture with Privacy Preserving Learning [48.24121036612076]
フェデレーション学習は、複数のエージェントと連携してグローバルモデルを見つける中央プロセッサを含む。
複数のクライアントに接続されたサーバの現在のアーキテクチャは、サーバの通信障害や計算過負荷に非常に敏感です。
暗号と差分プライバシーの概念を使用して、グラフ構造に拡張するフェデレーション学習アルゴリズムを民営化します。
論文 参考訳(メタデータ) (2021-04-26T09:51:24Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。