論文の概要: Software Engineering Principles for Fairer Systems: Experiments with GroupCART
- arxiv url: http://arxiv.org/abs/2504.12587v1
- Date: Thu, 17 Apr 2025 02:06:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:15.881079
- Title: Software Engineering Principles for Fairer Systems: Experiments with GroupCART
- Title(参考訳): フェアアシステムのためのソフトウェアエンジニアリング原則: GroupCARTによる実験
- Authors: Kewen Peng, Hao Zhuo, Yicheng Yang, Tim Menzies,
- Abstract要約: GroupCARTはツリーベースのアンサンブルで、モデル構築時のバイアスを回避する。
実験の結果,GroupCARTはデータ変換なしでより公平なモデルを実現することがわかった。
その結果,決定木モデルのアルゴリズムバイアスは,マルチタスク,公平性を考慮した学習によって緩和可能であることが示された。
- 参考スコア(独自算出の注目度): 9.545063195641882
- License:
- Abstract: Discrimination-aware classification aims to make accurate predictions while satisfying fairness constraints. Traditional decision tree learners typically optimize for information gain in the target attribute alone, which can result in models that unfairly discriminate against protected social groups (e.g., gender, ethnicity). Motivated by these shortcomings, we propose GroupCART, a tree-based ensemble optimizer that avoids bias during model construction by optimizing not only for decreased entropy in the target attribute but also for increased entropy in protected attributes. Our experiments show that GroupCART achieves fairer models without data transformation and with minimal performance degradation. Furthermore, the method supports customizable weighting, offering a smooth and flexible trade-off between predictive performance and fairness based on user requirements. These results demonstrate that algorithmic bias in decision tree models can be mitigated through multi-task, fairness-aware learning. All code and datasets used in this study are available at: https://github.com/anonymous12138/groupCART.
- Abstract(参考訳): 識別対応分類は、公正性制約を満たしつつ正確な予測を行うことを目的としている。
伝統的な決定木学習者は、典型的には、ターゲット属性だけでの情報取得を最適化し、保護された社会グループ(例えば、性別、民族性)に対して不公平に差別するモデルをもたらす。
これらの欠点に乗じて、ターゲット属性におけるエントロピーの減少だけでなく、保護属性におけるエントロピーの増大を最適化することにより、モデル構築時のバイアスを回避するツリーベースアンサンブル最適化器であるGroupCARTを提案する。
実験の結果,GroupCARTはデータ変換を伴わず,性能劣化を最小限に抑えながら,より公平なモデルを実現することがわかった。
さらに、この方法はカスタマイズ可能な重み付けをサポートし、ユーザ要求に基づいた予測性能と公平性の間のスムーズで柔軟なトレードオフを提供する。
これらの結果から,決定木モデルのアルゴリズムバイアスは,マルチタスク,公平性を考慮した学習によって緩和可能であることが示された。
この研究で使用されるすべてのコードとデータセットは、https://github.com/anonymous12138/groupCARTで入手できる。
関連論文リスト
- Improving Fairness in Credit Lending Models using Subgroup Threshold Optimization [0.0]
textitSubgroup Threshold(textitSTO)と呼ばれる新しいフェアネス手法を導入する。
STOは、個々のサブグループの分類閾値を最適化して、それらの間の全体的な識別スコアを最小化する。
実世界の信用貸付データセットを用いた実験により、STOは性別差別を90%以上削減できることが示された。
論文 参考訳(メタデータ) (2024-03-15T19:36:56Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes [15.525314212209564]
機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
論文 参考訳(メタデータ) (2021-10-03T22:10:14Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Fairness by Explicability and Adversarial SHAP Learning [0.0]
本稿では,外部監査役の役割とモデル説明可能性を強調するフェアネスの新たな定義を提案する。
逆代理モデルのSHAP値から構築した正規化を用いてモデルバイアスを緩和するフレームワークを開発する。
合成データセット、UCIアダルト(国勢調査)データセット、実世界の信用評価データセットである。
論文 参考訳(メタデータ) (2020-03-11T14:36:34Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。