論文の概要: Fair Generalized Linear Models with a Convex Penalty
- arxiv url: http://arxiv.org/abs/2206.09076v1
- Date: Sat, 18 Jun 2022 00:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 16:28:21.105743
- Title: Fair Generalized Linear Models with a Convex Penalty
- Title(参考訳): 凸ペナルティを持つ公正な一般化線形モデル
- Authors: Hyungrok Do, Preston Putzel, Axel Martin, Padhraic Smyth, Judy Zhong
- Abstract要約: 一般化線形モデル(GLM)に対して,期待値の等化やログ類似度に基づく2つのフェアネス基準を導入する。
我々は,GLMの線形成分のみに基づく凸ペナルティ項により,両基準が達成可能であることを証明した。
- 参考スコア(独自算出の注目度): 8.272953252901273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent advances in algorithmic fairness, methodologies for achieving
fairness with generalized linear models (GLMs) have yet to be explored in
general, despite GLMs being widely used in practice. In this paper we introduce
two fairness criteria for GLMs based on equalizing expected outcomes or
log-likelihoods. We prove that for GLMs both criteria can be achieved via a
convex penalty term based solely on the linear components of the GLM, thus
permitting efficient optimization. We also derive theoretical properties for
the resulting fair GLM estimator. To empirically demonstrate the efficacy of
the proposed fair GLM, we compare it with other well-known fair prediction
methods on an extensive set of benchmark datasets for binary classification and
regression. In addition, we demonstrate that the fair GLM can generate fair
predictions for a range of response variables, other than binary and continuous
outcomes.
- Abstract(参考訳): 近年のアルゴリズムフェアネスの進歩にもかかわらず、一般化線形モデル(GLM)による公正性を達成する手法は、GLMが実際に広く使われているにもかかわらず、一般には研究されていない。
本稿では,予測結果の等化やログ類似度に基づくGLMの公平性基準を2つ導入する。
我々は,GLMの線形成分のみに基づく凸ペナルティ項により両基準が達成できることを証明し,効率よく最適化できることを示した。
また、結果の公正なGLM推定器の理論的性質を導出する。
提案するfair glmの有効性を実証的に示すために,バイナリ分類と回帰のためのベンチマークデータセットの広範なセットにおいて,他の有名なfair予測手法と比較した。
さらに,2次および連続的な結果以外の応答変数に対して,公正なGLMが公平に予測できることを示す。
関連論文リスト
- Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Generalized generalized linear models: Convex estimation and online
bounds [11.295523372922533]
モデルのクラス(GL-based)モデル(GGLM)に不等式を導入する。
提案手法は, モデル間の非時間的変動を克服するために, 演算子に基づくアプローチを用いる。
本稿では,数値シミュレーションと実データを用いたインシデントの実例を示す。
論文 参考訳(メタデータ) (2023-04-26T19:19:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Algorithms for Non-Stationary Generalized Linear Bandits [0.0]
ロジスティック回帰は、標準線形モデリングの使用よりも好ましいことが知られている。
スライドウインドウと最大形状推定器のどちらかを利用する2つの高信頼境界ベースアルゴリズムを提案する。
一般的な文脈系列に対するこれらのアルゴリズムの挙動と急激な変化の存在に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2020-03-23T07:44:59Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。