論文の概要: Fair Inference for Discrete Latent Variable Models
- arxiv url: http://arxiv.org/abs/2209.07044v1
- Date: Thu, 15 Sep 2022 04:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:35:25.521085
- Title: Fair Inference for Discrete Latent Variable Models
- Title(参考訳): 離散潜在変数モデルの公正な推論
- Authors: Rashidul Islam, Shimei Pan and James R. Foulds
- Abstract要約: デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
- 参考スコア(独自算出の注目度): 12.558187319452657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is now well understood that machine learning models, trained on data
without due care, often exhibit unfair and discriminatory behavior against
certain populations. Traditional algorithmic fairness research has mainly
focused on supervised learning tasks, particularly classification. While
fairness in unsupervised learning has received some attention, the literature
has primarily addressed fair representation learning of continuous embeddings.
In this paper, we conversely focus on unsupervised learning using probabilistic
graphical models with discrete latent variables. We develop a fair stochastic
variational inference technique for the discrete latent variables, which is
accomplished by including a fairness penalty on the variational distribution
that aims to respect the principles of intersectionality, a critical lens on
fairness from the legal, social science, and humanities literature, and then
optimizing the variational parameters under this penalty. We first show the
utility of our method in improving equity and fairness for clustering using
na\"ive Bayes and Gaussian mixture models on benchmark datasets. To demonstrate
the generality of our approach and its potential for real-world impact, we then
develop a special-purpose graphical model for criminal justice risk
assessments, and use our fairness approach to prevent the inferences from
encoding unfair societal biases.
- Abstract(参考訳): 現在では、注意を払わずにデータに基づいてトレーニングされた機械学習モデルは、特定の集団に対して不公平で差別的な行動を示すことがよく理解されている。
伝統的なアルゴリズムフェアネス研究は主に教師付き学習タスク、特に分類に焦点を当てている。
教師なし学習の公平性は注目されているが、この文学は主に連続埋め込みの公正表現学習を扱っている。
本稿では,確率的グラフィカルモデルと離散潜在変数を用いた教師なし学習に着目した。
本研究は, 離散潜伏変数に対する公正確率的変分推論手法を開発し, 交差性の原理を尊重する変分分布に対する公平性ペナルティ, 法学, 社会科学, 人文科学の公正性に対する批判レンズ, そして, このペナルティの下で変分パラメータを最適化することによって達成される。
まず,ベンチマークデータセット上でna\"ive bayesおよびgaussian mixed modelを用いたクラスタリングの公平性と公平性を改善する手法の有用性を示す。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特殊なグラフィカルモデルを開発し,不公平な社会的偏見の符号化を防止するために公正性アプローチを用いる。
関連論文リスト
- Enhancing Fairness in Neural Networks Using FairVIC [0.0]
自動意思決定システム、特にディープラーニングモデルにおけるバイアスの緩和は、公平性を達成する上で重要な課題である。
FairVICは、トレーニング段階で固有のバイアスに対処することによって、ニューラルネットワークの公平性を高めるために設計された革新的なアプローチである。
我々は、モデルの精度を有害な程度に向上させることなく、テスト対象のすべての指標の公平性を大幅に改善する。
論文 参考訳(メタデータ) (2024-04-28T10:10:21Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。