論文の概要: Enhancing Group Fairness in Online Settings Using Oblique Decision
Forests
- arxiv url: http://arxiv.org/abs/2310.11401v1
- Date: Tue, 17 Oct 2023 17:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 15:00:33.772972
- Title: Enhancing Group Fairness in Online Settings Using Oblique Decision
Forests
- Title(参考訳): 斜め森林を用いたオンライン環境におけるグループフェアネス向上
- Authors: Somnath Basu Roy Chowdhury, Nicholas Monath, Ahmad Beirami, Rahul
Kidambi, Avinava Dubey, Amr Ahmed, Snigdha Chaturvedi
- Abstract要約: 我々は,オンライン設定において公平な判断を行うために,斜めの意思決定ツリーのアンサンブルであるアラニーニを提案する。
アラニーニの階層木構造はパラメータ分離を可能にし、フェアネス勾配を効率的に計算することができる。
Aranyaniはベースラインアプローチよりも精度と公正性のトレードオフが優れていることを示す。
- 参考スコア(独自算出の注目度): 43.918672959125296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness, especially group fairness, is an important consideration in the
context of machine learning systems. The most commonly adopted group
fairness-enhancing techniques are in-processing methods that rely on a mixture
of a fairness objective (e.g., demographic parity) and a task-specific
objective (e.g., cross-entropy) during the training process. However, when data
arrives in an online fashion -- one instance at a time -- optimizing such
fairness objectives poses several challenges. In particular, group fairness
objectives are defined using expectations of predictions across different
demographic groups. In the online setting, where the algorithm has access to a
single instance at a time, estimating the group fairness objective requires
additional storage and significantly more computation (e.g., forward/backward
passes) than the task-specific objective at every time step. In this paper, we
propose Aranyani, an ensemble of oblique decision trees, to make fair decisions
in online settings. The hierarchical tree structure of Aranyani enables
parameter isolation and allows us to efficiently compute the fairness gradients
using aggregate statistics of previous decisions, eliminating the need for
additional storage and forward/backward passes. We also present an efficient
framework to train Aranyani and theoretically analyze several of its
properties. We conduct empirical evaluations on 5 publicly available benchmarks
(including vision and language datasets) to show that Aranyani achieves a
better accuracy-fairness trade-off compared to baseline approaches.
- Abstract(参考訳): 公平性、特にグループ公平性は、機械学習システムのコンテキストにおいて重要な考慮事項である。
最も一般的に採用されているグループフェアネスエンハンシングテクニックは、トレーニングプロセス中にフェアネス目標(例えば、人口比パリティ)とタスク固有の目標(例えば、クロスエントロピー)の混合に依存するインプロセッシング手法である。
しかし、データがオンライン形式で(一度に1つのインスタンス)到着すると、このような公正な目標を最適化することは、いくつかの課題を引き起こします。
特に、グループフェアネスの目標は、異なる人口集団にわたる予測の予測を用いて定義される。
アルゴリズムが一度に1つのインスタンスにアクセスできるオンライン設定では、グループフェアネスの目標を推定するには、追加のストレージと、タスク固有の目標よりもはるかに多くの計算(例えば、前方/後方通過)が必要である。
本稿では,オンライン環境で公平な意思決定を行うために,斜め決定木のアンサンブルであるaranyaniを提案する。
アラニーニの階層木構造はパラメータ分離を可能にし、事前決定の集計統計値を用いて公平度勾配を効率的に計算し、追加ストレージや前方/後方通過の必要性を排除できる。
また,aranyaniを訓練するための効率的な枠組みを提案し,その性質を理論的に解析する。
5つの公開ベンチマーク(ビジョンと言語データセットを含む)で実証的な評価を行い、Aranyaniがベースラインアプローチよりも精度-公正トレードオフが優れていることを示す。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Fair Clustering Under a Bounded Cost [33.50262066253557]
クラスタリングは、データセットをメトリクス空間内の近くのポイントで構成されるクラスタに分割する、基本的な教師なしの学習問題である。
最近の変種であるフェアクラスタリング(英語版)は、各点とその群のメンバーシップを表す色を関連付け、各色が群フェアネスを満たすために各クラスタに等しい表現(およそ)を持つことを要求する。
我々は,集団の実用的目的と集団の平等的目的,および集団の平等的目的を一般化するグループ・レキシミン的目的の2つの公正性を考察する。
論文 参考訳(メタデータ) (2021-06-14T08:47:36Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。