論文の概要: Characterization of Group-Fair Social Choice Rules under Single-Peaked
Preferences
- arxiv url: http://arxiv.org/abs/2207.07984v1
- Date: Sat, 16 Jul 2022 17:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:42:18.681454
- Title: Characterization of Group-Fair Social Choice Rules under Single-Peaked
Preferences
- Title(参考訳): グループフェア社会選択規則の単一優先条件下でのキャラクタリゼーション
- Authors: Gogulapati Sreedurga, Soumyarup Sadhukhan, Souvik Roy, Yadati Narahari
- Abstract要約: 社会的選択設定における公平さを、単一話者の嗜好の下で研究する。
グループフェアネスを満足するランダムな社会的選択ルールを2つの別々に評価する。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study fairness in social choice settings under single-peaked preferences.
Construction and characterization of social choice rules in the single-peaked
domain has been extensively studied in prior works. In fact, in the
single-peaked domain, it is known that unanimous and strategy-proof
deterministic rules have to be min-max rules and those that also satisfy
anonymity have to be median rules. Further, random social choice rules
satisfying these properties have been shown to be convex combinations of
respective deterministic rules. We non-trivially add to this body of results by
including fairness considerations in social choice. Our study directly
addresses fairness for groups of agents. To study group-fairness, we consider
an existing partition of the agents into logical groups, based on natural
attributes such as gender, race, and location. To capture fairness within each
group, we introduce the notion of group-wise anonymity. To capture fairness
across the groups, we propose a weak notion as well as a strong notion of
fairness. The proposed fairness notions turn out to be natural generalizations
of existing individual-fairness notions and moreover provide non-trivial
outcomes for strict ordinal preferences, unlike the existing group-fairness
notions. We provide two separate characterizations of random social choice
rules that satisfy group-fairness: (i) direct characterization (ii) extreme
point characterization (as convex combinations of fair deterministic social
choice rules). We also explore the special case where there are no groups and
provide sharper characterizations of rules that achieve individual-fairness.
- Abstract(参考訳): 社会的選択設定における公平さを、単一話者の嗜好の下で研究する。
単一話者領域における社会的選択規則の構築と特徴付けは、これまで広く研究されてきた。
実際、単一話者領域では、一様かつ戦略に反する決定論的ルールはmin-maxルールであり、匿名性も満たすルールは中央値ルールである必要があることが知られている。
さらに、これらの性質を満たすランダムな社会的選択規則は、各決定論的規則の凸結合であることが示されている。
社会的選択に公平性を考慮することで、この結果に自明に加えます。
本研究は, エージェント集団の公正性に直接対処する。
グループフェアネスを研究するために,性別,人種,場所といった自然属性に基づいて,既存のエージェントを論理グループに分割することを検討する。
各グループ内の公平さを捉えるために,グループ毎の匿名性の概念を導入する。
集団全体の公平さを捉えるため、公平性という強い概念とともに弱い概念を提案する。
提案された公正の概念は、既存の個性概念の自然な一般化であり、また既存の群性概念とは異なり、厳密な順序性選好に対して非自明な結果を与える。
グループフェアネスを満足するランダムな社会的選択規則の2つの異なる特徴を提供する。
(i)直接的特徴付け
(二)極点特徴付け(公正決定論的社会的選択規則の凸結合として)
また,グループのない特別な場合についても検討し,個性を達成するルールのより鋭い特徴付けを提供する。
関連論文リスト
- Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Proportional Fairness in Obnoxious Facility Location [100.88307501458418]
この問題に対して,距離に基づく比例フェアネスの概念の階層構造を提案する。
決定論的かつランダムなメカニズムを考察し、比例フェアネスの価格に関する厳密な境界を計算する。
論文 参考訳(メタデータ) (2023-01-11T07:30:35Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Distributive Justice as the Foundational Premise of Fair ML:
Unification, Extension, and Interpretation of Group Fairness Metrics [0.0]
グループフェアネス指標は、予測に基づく意思決定システムの公正性を評価する確立された方法である。
本稿では,グループフェアネス指標の包括的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:44:02Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。