論文の概要: Fair Generalized Linear Models with a Convex Penalty
- arxiv url: http://arxiv.org/abs/2206.09076v1
- Date: Sat, 18 Jun 2022 00:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 16:28:21.105743
- Title: Fair Generalized Linear Models with a Convex Penalty
- Title(参考訳): 凸ペナルティを持つ公正な一般化線形モデル
- Authors: Hyungrok Do, Preston Putzel, Axel Martin, Padhraic Smyth, Judy Zhong
- Abstract要約: 一般化線形モデル(GLM)に対して,期待値の等化やログ類似度に基づく2つのフェアネス基準を導入する。
我々は,GLMの線形成分のみに基づく凸ペナルティ項により,両基準が達成可能であることを証明した。
- 参考スコア(独自算出の注目度): 8.272953252901273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent advances in algorithmic fairness, methodologies for achieving
fairness with generalized linear models (GLMs) have yet to be explored in
general, despite GLMs being widely used in practice. In this paper we introduce
two fairness criteria for GLMs based on equalizing expected outcomes or
log-likelihoods. We prove that for GLMs both criteria can be achieved via a
convex penalty term based solely on the linear components of the GLM, thus
permitting efficient optimization. We also derive theoretical properties for
the resulting fair GLM estimator. To empirically demonstrate the efficacy of
the proposed fair GLM, we compare it with other well-known fair prediction
methods on an extensive set of benchmark datasets for binary classification and
regression. In addition, we demonstrate that the fair GLM can generate fair
predictions for a range of response variables, other than binary and continuous
outcomes.
- Abstract(参考訳): 近年のアルゴリズムフェアネスの進歩にもかかわらず、一般化線形モデル(GLM)による公正性を達成する手法は、GLMが実際に広く使われているにもかかわらず、一般には研究されていない。
本稿では,予測結果の等化やログ類似度に基づくGLMの公平性基準を2つ導入する。
我々は,GLMの線形成分のみに基づく凸ペナルティ項により両基準が達成できることを証明し,効率よく最適化できることを示した。
また、結果の公正なGLM推定器の理論的性質を導出する。
提案するfair glmの有効性を実証的に示すために,バイナリ分類と回帰のためのベンチマークデータセットの広範なセットにおいて,他の有名なfair予測手法と比較した。
さらに,2次および連続的な結果以外の応答変数に対して,公正なGLMが公平に予測できることを示す。
関連論文リスト
- Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Breaking the Ceiling of the LLM Community by Treating Token Generation as a Classification for Ensembling [3.873482175367558]
本稿では,Large Language Model (LLM) による各トークンの生成を,アンサンブルのための分類(GaC)として扱う。
実験では、試験、数学、推論などいくつかのベンチマークで最先端のLCMをアンサンブルし、我々の手法が既存のコミュニティのパフォーマンスを損なうことを観察する。
論文 参考訳(メタデータ) (2024-06-18T13:17:26Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Generalized generalized linear models: Convex estimation and online
bounds [11.295523372922533]
モデルのクラス(GL-based)モデル(GGLM)に不等式を導入する。
提案手法は, モデル間の非時間的変動を克服するために, 演算子に基づくアプローチを用いる。
本稿では,数値シミュレーションと実データを用いたインシデントの実例を示す。
論文 参考訳(メタデータ) (2023-04-26T19:19:42Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Algorithms for Non-Stationary Generalized Linear Bandits [0.0]
ロジスティック回帰は、標準線形モデリングの使用よりも好ましいことが知られている。
スライドウインドウと最大形状推定器のどちらかを利用する2つの高信頼境界ベースアルゴリズムを提案する。
一般的な文脈系列に対するこれらのアルゴリズムの挙動と急激な変化の存在に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2020-03-23T07:44:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。