論文の概要: Fairness constraint in Structural Econometrics and Application to fair
estimation using Instrumental Variables
- arxiv url: http://arxiv.org/abs/2202.08977v1
- Date: Wed, 16 Feb 2022 15:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 02:03:12.373657
- Title: Fairness constraint in Structural Econometrics and Application to fair
estimation using Instrumental Variables
- Title(参考訳): 構造経済学における公正制約と機器変数を用いた公正推定への応用
- Authors: Samuele Centorrino and Jean-Pierre Florens and Jean-Michel Loubes
- Abstract要約: 教師付き機械学習アルゴリズムは、新しい観測を予測するために使用される学習サンプルからモデルを決定する。
この情報集約は、観測できないものや、トレーニングサンプルに含まれる可能性のあるステータス・クオバイアスについて、潜在的な選択を考慮しない。
後者の偏見は、機械学習アルゴリズムのいわゆるテクストフェアネス(textitfairness)、特に不利なグループに対する懸念を提起している。
- 参考スコア(独自算出の注目度): 3.265773263570237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A supervised machine learning algorithm determines a model from a learning
sample that will be used to predict new observations. To this end, it
aggregates individual characteristics of the observations of the learning
sample. But this information aggregation does not consider any potential
selection on unobservables and any status-quo biases which may be contained in
the training sample. The latter bias has raised concerns around the so-called
\textit{fairness} of machine learning algorithms, especially towards
disadvantaged groups. In this chapter, we review the issue of fairness in
machine learning through the lenses of structural econometrics models in which
the unknown index is the solution of a functional equation and issues of
endogeneity are explicitly accounted for. We model fairness as a linear
operator whose null space contains the set of strictly {\it fair} indexes. A
{\it fair} solution is obtained by projecting the unconstrained index into the
null space of this operator or by directly finding the closest solution of the
functional equation into this null space. We also acknowledge that policymakers
may incur a cost when moving away from the status quo. Achieving
\textit{approximate fairness} is obtained by introducing a fairness penalty in
the learning procedure and balancing more or less heavily the influence between
the status quo and a full fair solution.
- Abstract(参考訳): 教師付き機械学習アルゴリズムは、新しい観測を予測するために使用される学習サンプルからモデルを決定する。
この目的のために、学習サンプルの観察の個々の特性を集約する。
しかし、この情報集約は、観測不能な場合の潜在的な選択や、トレーニングサンプルに含まれる可能性のある状態-キューバイアスは考慮していない。
後者のバイアスは、機械学習アルゴリズムのいわゆる \textit{fairness}、特に不利なグループに対する懸念を提起している。
本章では,未知指数が関数方程式の解であり,内在性の問題が明確に説明される構造的計量学モデルのレンズを通して,機械学習における公平性の問題について検討する。
我々はフェアネスを、厳密な {\it fair} 指数の集合を含むヌル空間を持つ線型作用素としてモデル化する。
この作用素の null 空間に制約のない指数を射影するか、あるいは函数方程式の最も近い解をこの null 空間へ直接見つけ出すことによって、 {\displaystyle {\it fair} 解が得られる。
我々はまた、政策立案者が現状から離れる際にコストが発生する可能性があることを認めている。
学習手順にフェアネスペナルティを導入し、ステータスクオとフルフェアソリューションの間の影響を多かれ少なかれ大きくバランスさせることにより、「textit{approximate fairness}」を得る。
関連論文リスト
- Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - LUCID-GAN: Conditional Generative Models to Locate Unfairness [1.5257247496416746]
本稿では,勾配に基づく逆設計の代わりに条件付き生成モデルを用いて標準入力を生成するLUCID-GANを提案する。
UCIアダルトデータセットとCompASデータセットのLUCID-GANを実験的に評価し、トレーニングデータへのアクセスを必要とせず、ブラックボックスモデルにおける非倫理的バイアスを検出することができることを示す。
論文 参考訳(メタデータ) (2023-07-28T10:37:49Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Learning Individually Fair Classifier with Path-Specific Causal-Effect
Constraint [31.86959207229775]
本稿では,個々に公平な分類器を学習するための枠組みを提案する。
個人不公平(PIU)の確率を定義し、データから推定できるPIUの上界がゼロに近いように制御される最適化問題を解く。
実験結果から,本手法は精度のわずかなコストで,個別に公平な分類器を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-17T02:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。