論文の概要: Cohort Shapley value for algorithmic fairness
- arxiv url: http://arxiv.org/abs/2105.07168v1
- Date: Sat, 15 May 2021 08:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:59:09.373685
- Title: Cohort Shapley value for algorithmic fairness
- Title(参考訳): アルゴリズムフェアネスのためのコホートシェープ値
- Authors: Masayoshi Mase, Art B. Owen, Benjamin B. Seiler
- Abstract要約: コホートシャプリー値(Cohort Shapley value)は、ゲーム理論に基礎を置く変数重要性のモデルフリーな方法である。
アルゴリズムの公正性を評価するために,よく知られたCompASレシビズムデータを例に挙げた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cohort Shapley value is a model-free method of variable importance grounded
in game theory that does not use any unobserved and potentially impossible
feature combinations. We use it to evaluate algorithmic fairness, using the
well known COMPAS recidivism data as our example. This approach allows one to
identify for each individual in a data set the extent to which they were
adversely or beneficially affected by their value of a protected attribute such
as their race. The method can do this even if race was not one of the original
predictors and even if it does not have access to a proprietary algorithm that
has made the predictions. The grounding in game theory lets us define aggregate
variable importance for a data set consistently with its per subject
definitions. We can investigate variable importance for multiple quantities of
interest in the fairness literature including false positive predictions.
- Abstract(参考訳): コホート・シェープリー値(Cohort Shapley value)は、ゲーム理論に基礎を置くモデルなしの変数重要性の方法であり、観測不能で潜在的に不可能な特徴の組み合わせは一切使わない。
アルゴリズムの公正性を評価するために,よく知られたCompASレシビズムデータを例に挙げた。
このアプローチにより、人種のような保護された属性の値に悪影響や有益な影響がある範囲のデータセット内の各個人を識別することができる。
この方法は、レースが元の予測器の1つでなかったり、予測を行ったプロプライエタリなアルゴリズムにアクセスできなかったとしても、これを行うことができる。
ゲーム理論の基盤は、対象ごとの定義と一貫してデータセットに対する集合変数の重要度を定義することである。
偽陽性予測を含むフェアネス文学における多量の関心に対する可変重要度を調べることができる。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Adapting to Latent Subgroup Shifts via Concepts and Proxies [82.01141290360562]
最適ターゲット予測器は、ソースドメインでのみ利用できる概念とプロキシ変数の助けを借りて、非パラメトリックに識別可能であることを示す。
本研究では,データ生成プロセスに特有の潜在変数モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T18:30:22Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Variable importance without impossible data [0.0]
経済ゲーム理論に基づくコホートシェープ法を提唱する。
モデルが訓練されていない保護変数に重要な属性を割り当てることが不可欠であるアルゴリズムフェアネス問題について説明する。
論文 参考訳(メタデータ) (2022-05-31T12:36:18Z) - Fairness without Imputation: A Decision Tree Approach for Fair
Prediction with Missing Values [4.973456986972679]
欠落した値を持つデータを用いて機械学習モデルを訓練する際の公平性の懸念について検討する。
本稿では,個別の計算処理や学習プロセスを必要としない決定木に基づく統合的アプローチを提案する。
提案手法は,有意なデータセットに適用した既存のフェアネス介入手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-21T20:46:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z) - On the consistency of supervised learning with missing values [15.666860186278782]
多くのアプリケーション設定において、データは分析を難しくするエントリを欠いている。
ここでは、教師あり学習の設定について考察する。トレーニングデータとテストデータの両方に、欠落した値が現れるときにターゲットを予測する。
本研究では,学習前の平均値など,一定値が得られない場合に一定であることを示す。
論文 参考訳(メタデータ) (2019-02-19T07:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。