論文の概要: Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency
- arxiv url: http://arxiv.org/abs/2402.15561v1
- Date: Fri, 23 Feb 2024 19:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:58:26.395147
- Title: Fair Multivariate Adaptive Regression Splines for Ensuring Equity and
Transparency
- Title(参考訳): 公平な多変量適応回帰スプラインによる等価性と透明性の確保
- Authors: Parian Haghighat, Denisa G'andara, Lulu Kang, Hadis Anahideh
- Abstract要約: 学習過程に公平度を組み込んだMARSに基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
- 参考スコア(独自算出の注目度): 1.124958340749622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive analytics is widely used in various domains, including education,
to inform decision-making and improve outcomes. However, many predictive models
are proprietary and inaccessible for evaluation or modification by researchers
and practitioners, limiting their accountability and ethical design. Moreover,
predictive models are often opaque and incomprehensible to the officials who
use them, reducing their trust and utility. Furthermore, predictive models may
introduce or exacerbate bias and inequity, as they have done in many sectors of
society. Therefore, there is a need for transparent, interpretable, and fair
predictive models that can be easily adopted and adapted by different
stakeholders. In this paper, we propose a fair predictive model based on
multivariate adaptive regression splines(MARS) that incorporates fairness
measures in the learning process. MARS is a non-parametric regression model
that performs feature selection, handles non-linear relationships, generates
interpretable decision rules, and derives optimal splitting criteria on the
variables. Specifically, we integrate fairness into the knot optimization
algorithm and provide theoretical and empirical evidence of how it results in a
fair knot placement. We apply our fairMARS model to real-world data and
demonstrate its effectiveness in terms of accuracy and equity. Our paper
contributes to the advancement of responsible and ethical predictive analytics
for social good.
- Abstract(参考訳): 予測分析は教育を含む様々な領域で広く使われ、意思決定と成果の改善に使われている。
しかし、多くの予測モデルはプロプライエタリであり、研究者や実践者による評価や修正にはアクセスできない。
さらに、予測モデルはしばしば不透明で、それを使用する役人には理解できないため、信頼と有用性が低下する。
さらに、予測モデルは、社会の多くの部門で行われているように、バイアスや不平等を導入または悪化させる可能性がある。
したがって、異なる利害関係者によって容易に採用され、適応できる透明性、解釈可能、公正な予測モデルが必要である。
本稿では,多変量適応回帰スプライン(MARS)に基づく公正度予測モデルを提案する。
MARSは、特徴選択を行い、非線形関係を扱い、解釈可能な決定ルールを生成し、変数の最適分割基準を導出する非パラメトリック回帰モデルである。
具体的には、公正性を結び目最適化アルゴリズムに統合し、それがどのように公正な結び目配置をもたらすかの理論的および実証的な証拠を提供する。
実世界のデータにfairMARSモデルを適用し、精度とエクイティの観点からその有効性を実証する。
本稿は,社会的善に対する責任と倫理的予測分析の進歩に寄与する。
関連論文リスト
- From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Improved Bayes Risk Can Yield Reduced Social Welfare Under Competition [99.7047087527422]
本研究は,機械学習のスケーリングトレンドの振る舞いを根本的に変化させることを実証する。
データ表現品質の改善により、ユーザ間での全体的な予測精度が低下する、多くの設定が見つかる。
概念レベルでは,各モデルプロジェクタのスケーリング傾向が,社会福祉の下流改善に寄与する必要はないことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T13:06:34Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。