論文の概要: Beyond Submodularity: A Unified Framework of Randomized Set Selection
with Group Fairness Constraints
- arxiv url: http://arxiv.org/abs/2304.06596v1
- Date: Thu, 13 Apr 2023 15:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 13:56:57.620449
- Title: Beyond Submodularity: A Unified Framework of Randomized Set Selection
with Group Fairness Constraints
- Title(参考訳): 部分モジュラリティを超えて:群フェアネス制約付きランダム集合選択の統一フレームワーク
- Authors: Shaojie Tang, Jing Yuan
- Abstract要約: グループフェアネス制約を組み込んだランダム化サブセット選択のための統一フレームワークを提案する。
我々の問題には、グローバルなユーティリティ関数と、各グループに対するグループユーティリティ関数のセットが含まれる。
我々の目的は、各実現可能な集合の選択確率を指定して、実現可能な部分集合にまたがる分布を生成することである。
- 参考スコア(独自算出の注目度): 19.29174615532181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning algorithms play an important role in a variety of important
decision-making processes, including targeted advertisement displays, home loan
approvals, and criminal behavior predictions. Given the far-reaching impact of
these algorithms, it is crucial that they operate fairly, free from bias or
prejudice towards certain groups in the population. Ensuring impartiality in
these algorithms is essential for promoting equality and avoiding
discrimination. To this end we introduce a unified framework for randomized
subset selection that incorporates group fairness constraints. Our problem
involves a global utility function and a set of group utility functions for
each group, here a group refers to a group of individuals (e.g., people)
sharing the same attributes (e.g., gender). Our aim is to generate a
distribution across feasible subsets, specifying the selection probability of
each feasible set, to maximize the global utility function while meeting a
predetermined quota for each group utility function in expectation. Note that
there may not necessarily be any direct connections between the global utility
function and each group utility function. We demonstrate that this framework
unifies and generalizes many significant applications in machine learning and
operations research. Our algorithmic results either improves the best known
result or provide the first approximation algorithms for new applications.
- Abstract(参考訳): 機械学習アルゴリズムは、ターゲット広告表示、住宅ローン承認、犯罪行動予測など、さまざまな重要な意思決定プロセスにおいて重要な役割を果たす。
これらのアルゴリズムの長期的影響を考えると、集団の特定のグループに対する偏見や偏見のない、公平に運用することが重要である。
これらのアルゴリズムの公平性を確保することは、平等の促進と差別の回避に不可欠である。
この目的のために,グループフェアネス制約を組み込んだランダム化部分集合選択のための統一フレームワークを提案する。
私たちの問題は、グローバルユーティリティ関数とグループごとのグループユーティリティ関数の集合を含み、ここではグループは、同じ属性(例えば、性別)を共有する個人のグループ(例えば、人々)を指します。
本研究の目的は,可能部分集合にまたがる分布を生成し,各実行可能集合の選択確率を規定し,期待するグループ効用関数の所定のクォータを満たしながらグローバル効用関数を最大化することである。
グローバルユーティリティ関数と各群ユーティリティ関数の間には必ずしも直接的な接続が存在するとは限らないことに注意。
このフレームワークが機械学習や運用研究において多くの重要な応用を統一し、一般化することを実証する。
我々のアルゴリズムは、最もよく知られた結果を改善するか、新しいアプリケーションに最初の近似アルゴリズムを提供する。
関連論文リスト
- Minimax Group Fairness in Strategic Classification [8.250258160056514]
戦略的分類において、エージェントは、学習者の分類器から肯定的な分類結果を受け取るために、その特徴をコストで操作する。
精度保証に加えて,グループフェアネス保証を有する学習目標について検討する。
我々は、複数のグループからなるエージェントの集団間のフェアネスを意識したスタックルバーグゲームを形式化し、各グループは独自のコスト関数を持つ。
論文 参考訳(メタデータ) (2024-10-03T14:22:55Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Achieving Long-term Fairness in Submodular Maximization through
Randomization [16.33001220320682]
人種や性別などのセンシティブな属性を含む可能性のあるデータアイテムを扱う場合、公平性を意識したアルゴリズムを実装することが重要です。
群フェアネス制約を満たしながら単調部分モジュラ函数を最大化する問題について検討する。
論文 参考訳(メタデータ) (2023-04-10T16:39:19Z) - Fair Labeled Clustering [28.297893914525517]
クラスタリングのダウンストリーム適用と,そのような設定に対してグループフェアネスをどのように確保するかを検討する。
このような問題に対するアルゴリズムを提供し、グループフェアクラスタリングにおけるNPハードのアルゴリズムとは対照的に、効率的な解が可能であることを示す。
また、距離空間における中心位置に関係なく、意思決定者が自由にクラスタにラベルを割り当てることができるような、モチベーションのよい代替設定についても検討する。
論文 参考訳(メタデータ) (2022-05-28T07:07:12Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。