論文の概要: The Importance of Modeling Data Missingness in Algorithmic Fairness: A
Causal Perspective
- arxiv url: http://arxiv.org/abs/2012.11448v1
- Date: Mon, 21 Dec 2020 16:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 12:12:32.907819
- Title: The Importance of Modeling Data Missingness in Algorithmic Fairness: A
Causal Perspective
- Title(参考訳): アルゴリズムフェアネスにおけるデータ不足のモデル化の重要性:因果的視点
- Authors: Naman Goel, Alfonso Amayuelas, Amit Deshpande, Amit Sharma
- Abstract要約: 機械学習のためのトレーニングデータセットには、ある種の欠落があることが多い。
この欠如は、無視されると、モデルのデプロイ時にトレーニング手順のフェアネス保証を無効にする。
一般的な公平性アルゴリズムで使用される様々な分布が、トレーニングデータから回復できない、または回復できない条件を示します。
- 参考スコア(独自算出の注目度): 14.622708494548363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training datasets for machine learning often have some form of missingness.
For example, to learn a model for deciding whom to give a loan, the available
training data includes individuals who were given a loan in the past, but not
those who were not. This missingness, if ignored, nullifies any fairness
guarantee of the training procedure when the model is deployed. Using causal
graphs, we characterize the missingness mechanisms in different real-world
scenarios. We show conditions under which various distributions, used in
popular fairness algorithms, can or can not be recovered from the training
data. Our theoretical results imply that many of these algorithms can not
guarantee fairness in practice. Modeling missingness also helps to identify
correct design principles for fair algorithms. For example, in multi-stage
settings where decisions are made in multiple screening rounds, we use our
framework to derive the minimal distributions required to design a fair
algorithm. Our proposed algorithm decentralizes the decision-making process and
still achieves similar performance to the optimal algorithm that requires
centralization and non-recoverable distributions.
- Abstract(参考訳): 機械学習のためのトレーニングデータセットには、何らかの欠如があることが多い。
例えば、誰にローンを与えるかを決めるモデルを学ぶために、利用可能なトレーニングデータは、過去にローンを与えられた個人を含むが、そうではない個人を含む。
この欠如は、無視されると、モデルのデプロイ時にトレーニング手順のフェアネス保証を無効にする。
因果グラフを用いて,実世界の異なるシナリオにおける欠落機構を特徴付ける。
一般的な公平性アルゴリズムで使用される様々な分布が、トレーニングデータから復元可能であるか、できないかを示す。
我々の理論的結果は、これらのアルゴリズムの多くは実際フェアネスを保証できないことを示している。
不足をモデル化することは、公正アルゴリズムの設計原則の正しい特定にも役立ちます。
例えば、複数のスクリーニングラウンドで意思決定を行うマルチステージ環境では、公正なアルゴリズムの設計に必要な最小限の分布を導出するためにフレームワークを使用します。
提案手法は意思決定過程を分散化し, 集中化と再定義不能分布を必要とする最適アルゴリズムと同様の性能を実現する。
関連論文リスト
- Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に, (i) 個人フェアネス(IF) の適切な概念を強制することで, MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - On the Necessity of Auditable Algorithmic Definitions for Machine
Unlearning [13.149070833843133]
機械学習、すなわち、トレーニングデータのいくつかを忘れるモデルを持つことは、プライバシー法が忘れられる権利の変種を促進するにつれ、ますます重要になっている。
まず、ほぼ未学習のモデルが正確に訓練されたモデルに近いことを証明しようとする、近似的未学習の定義は、異なるデータセットを用いて同じモデルを得ることができるため、正しくないことを示す。
そして、正確なアンラーニングアプローチに目を向け、アンラーニングのクレームの検証方法を尋ねます。
論文 参考訳(メタデータ) (2021-10-22T16:16:56Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Fairness without Imputation: A Decision Tree Approach for Fair
Prediction with Missing Values [4.973456986972679]
欠落した値を持つデータを用いて機械学習モデルを訓練する際の公平性の懸念について検討する。
本稿では,個別の計算処理や学習プロセスを必要としない決定木に基づく統合的アプローチを提案する。
提案手法は,有意なデータセットに適用した既存のフェアネス介入手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-21T20:46:22Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Data Preprocessing to Mitigate Bias with Boosted Fair Mollifiers [104.90335702521378]
最近の論文で、Celisらは、データ分散自体を補正する公正性に対する新しいアプローチを導入した。
本稿では、プライバシで最近導入された数学的オブジェクト -- 分散のモリファイア -- と、マシンラーニングに対する一般的なアプローチ -- を活用して、強化する。
このアプローチは指数族の十分な統計学を学ぶことを伴う。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。