論文の概要: Harm Ratio: A Novel and Versatile Fairness Criterion
- arxiv url: http://arxiv.org/abs/2410.02977v1
- Date: Thu, 3 Oct 2024 20:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 04:45:27.596958
- Title: Harm Ratio: A Novel and Versatile Fairness Criterion
- Title(参考訳): Harm Ratio: 新しくて多彩なフェアネス基準
- Authors: Soroush Ebadian, Rupert Freeman, Nisarg Shah,
- Abstract要約: 好奇心は公平な分業研究の基盤となっている。
本研究では, 新たな公正度基準, 個人に対する有害度比を提案する。
私たちの基準は、重要な意思決定アルゴリズムを区別するのに十分強力です。
- 参考スコア(独自算出の注目度): 27.18270261374462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Envy-freeness has become the cornerstone of fair division research. In settings where each individual is allocated a disjoint share of collective resources, it is a compelling fairness axiom which demands that no individual strictly prefer the allocation of another individual to their own. Unfortunately, in many real-life collective decision-making problems, the goal is to choose a (common) public outcome that is equally applicable to all individuals, and the notion of envy becomes vacuous. Consequently, this literature has avoided studying fairness criteria that focus on individuals feeling a sense of jealousy or resentment towards other individuals (rather than towards the system), missing out on a key aspect of fairness. In this work, we propose a novel fairness criterion, individual harm ratio, which is inspired by envy-freeness but applies to a broad range of collective decision-making settings. Theoretically, we identify minimal conditions under which this criterion and its groupwise extensions can be guaranteed, and study the computational complexity of related problems. Empirically, we conduct experiments with real data to show that our fairness criterion is powerful enough to differentiate between prominent decision-making algorithms for a range of tasks from voting and fair division to participatory budgeting and peer review.
- Abstract(参考訳): 好奇心は公平な分業研究の基盤となっている。
個々の個人が集団資源の相反する共有を割り当てられる環境では、いかなる個人も自分自身に他の個人を割り当てることを厳密には望まないという、魅力的な公正公理である。
残念なことに、多くの現実の集団的意思決定問題において、ゴールはすべての個人に等しく当てはまる(共通の)公的な結果を選ぶことであり、うらやましいという概念は空白になる。
したがって、この文献は、他人に対して(システムではなく)妬みや恨みを感じる個人に焦点をあてる公平性基準の研究を避け、公平性の重要な側面を欠いている。
本研究では,新たな公正度基準,個々人被害率を提案する。これは,うらやましい自由感に触発されたものだが,幅広い集団的意思決定設定に適用できる。
理論的には、この基準とグループワイズ拡張を保証できる最小条件を特定し、関連する問題の計算複雑性について検討する。
実証的に、我々は実際のデータを用いて実験を行い、我々の公正性の基準は、投票や公平な分割から参加予算、ピアレビューまで、様々なタスクにおいて、顕著な意思決定アルゴリズムを区別するのに十分強力であることを示す。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - A Universal Unbiased Method for Classification from Aggregate
Observations [115.20235020903992]
本稿では,任意の損失に対する分類リスクを非バイアスで推定するCFAOの普遍的手法を提案する。
提案手法は,非バイアスリスク推定器によるリスクの整合性を保証するだけでなく,任意の損失に対応できる。
論文 参考訳(メタデータ) (2023-06-20T07:22:01Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Characterization of Group-Fair Social Choice Rules under Single-Peaked
Preferences [0.5161531917413706]
社会的選択設定における公平さを、単一話者の嗜好の下で研究する。
グループフェアネスを満足するランダムな社会的選択ルールを2つの別々に評価する。
論文 参考訳(メタデータ) (2022-07-16T17:12:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Metric-Free Individual Fairness in Online Learning [32.56688029679103]
個人的公正性の制約を考慮したオンライン学習問題について検討する。
我々は、個人間の類似度測度が知られていると仮定せず、また、この測度が特定のパラメトリック形式を取ると仮定もしない。
定量的な測定を行なわずに公正な違反を検出する監査者の存在を活用している。
論文 参考訳(メタデータ) (2020-02-13T12:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。