論文の概要: Automated discovery of trade-off between utility, privacy and fairness
in machine learning models
- arxiv url: http://arxiv.org/abs/2311.15691v1
- Date: Mon, 27 Nov 2023 10:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:14:07.112195
- Title: Automated discovery of trade-off between utility, privacy and fairness
in machine learning models
- Title(参考訳): 機械学習モデルにおけるユーティリティ、プライバシ、公平性のトレードオフの自動発見
- Authors: Bogdan Ficiu, Neil D. Lawrence, Andrei Paleyes
- Abstract要約: 手動制約設定プロセスによって達成された既知の結果の再現にPFairDPをどのように利用できるかを示す。
さらに,複数のモデルとデータセットを用いたPFairDPの有効性を示す。
- 参考スコア(独自算出の注目度): 8.328861861105889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are deployed as a central component in decision
making and policy operations with direct impact on individuals' lives. In order
to act ethically and comply with government regulations, these models need to
make fair decisions and protect the users' privacy. However, such requirements
can come with decrease in models' performance compared to their potentially
biased, privacy-leaking counterparts. Thus the trade-off between fairness,
privacy and performance of ML models emerges, and practitioners need a way of
quantifying this trade-off to enable deployment decisions. In this work we
interpret this trade-off as a multi-objective optimization problem, and propose
PFairDP, a pipeline that uses Bayesian optimization for discovery of
Pareto-optimal points between fairness, privacy and utility of ML models. We
show how PFairDP can be used to replicate known results that were achieved
through manual constraint setting process. We further demonstrate effectiveness
of PFairDP with experiments on multiple models and datasets.
- Abstract(参考訳): 機械学習モデルは、個人の生活に直接影響を与える意思決定と政策運用の中心的なコンポーネントとしてデプロイされる。
倫理的に行動し、政府の規制に従うためには、これらのモデルは公正な決定を行い、ユーザのプライバシーを保護する必要がある。
しかし、そのような要件は、バイアスを負い、プライバシーを侵害するモデルに比べて、モデルのパフォーマンスが低下する可能性がある。
したがって、公平性とプライバシ、mlモデルのパフォーマンスのトレードオフが生まれ、実践者はこのトレードオフを定量化し、デプロイメント決定を可能にする方法が必要です。
本研究では,このトレードオフを多目的最適化問題として解釈し,公平性,プライバシ,MLモデルの実用性といったパレート最適点の発見にベイズ最適化を用いるパイプラインであるPFairDPを提案する。
手動制約設定プロセスによって達成された既知の結果の再現にPFairDPをどのように利用できるかを示す。
さらに,複数のモデルとデータセットを用いたPFairDPの有効性を示す。
関連論文リスト
- Knowledge Distillation-Based Model Extraction Attack using Private Counterfactual Explanations [1.6576983459630268]
本稿では,モデル抽出攻撃(MEA)の実行において,モデル説明,特にGAN(Generative Network)に基づく対実的説明(CF)をどのように活用できるかを検討することに注力する。
本稿では,CFを用いた対象モデルの代替モデルを抽出する効率を高めるため,知識蒸留(KD)に基づく新しいMEA手法を提案する。
以上の結果から,プライバシ層が組み込まれていることが説明器の性能,CFの品質に影響を及ぼし,MEA性能が低下することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-04T10:28:55Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - FairDP: Certified Fairness with Differential Privacy [59.56441077684935]
本稿では,FairDPについて紹介する。FairDPは,差分プライバシ(DP)による証明された公正性を実現するために設計された,新しいメカニズムである。
FairDPは個別に個別のグループのモデルを訓練し、グループ固有のクリッピング用語を用いてDPの異なる影響を評価し、バウンドする。
広範に理論的および実証的な分析により、FairDPの有効性が検証され、モデルユーティリティ、プライバシ、フェアネス間のトレードオフが改善された。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility [28.946180502706504]
機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
論文 参考訳(メタデータ) (2023-02-17T23:23:45Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - Fair Bayesian Optimization [25.80374249896801]
機械学習(ML)モデルの性能を最適化するために、一般的な制約付きベイズ最適化フレームワークを導入する。
我々は、ランダムな森林、ブースティング、ニューラルネットワークなど、さまざまな人気モデルに公平性制約のあるBOを適用した。
提案手法は,モデル固有の公正性制約を強制する特殊な手法と競合することを示す。
論文 参考訳(メタデータ) (2020-06-09T08:31:08Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。