論文の概要: Cherry on the Cake: Fairness is NOT an Optimization Problem
- arxiv url: http://arxiv.org/abs/2406.16606v1
- Date: Mon, 24 Jun 2024 12:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 14:44:42.832355
- Title: Cherry on the Cake: Fairness is NOT an Optimization Problem
- Title(参考訳): Cherry on the Cake:フェアネスは最適化の問題ではない
- Authors: Marco Favier, Toon Calders,
- Abstract要約: 効率的なケーキカットは最適決定関数と等価であることを示す。
この接続が機械学習問題における公平性にどのように活用できるかを示す。
- 参考スコア(独自算出の注目度): 3.706222947143855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair cake-cutting is a mathematical subfield that studies the problem of fairly dividing a resource among a number of participants. The so-called ``cake,'' as an object, represents any resource that can be distributed among players. This concept is connected to supervised multi-label classification: any dataset can be thought of as a cake that needs to be distributed, where each label is a player that receives its share of the dataset. In particular, any efficient cake-cutting solution for the dataset is equivalent to an optimal decision function. Although we are not the first to demonstrate this connection, the important ramifications of this parallel seem to have been partially forgotten. We revisit these classical results and demonstrate how this connection can be prolifically used for fairness in machine learning problems. Understanding the set of achievable fair decisions is a fundamental step in finding optimal fair solutions and satisfying fairness requirements. By employing the tools of cake-cutting theory, we have been able to describe the behavior of optimal fair decisions, which, counterintuitively, often exhibit quite unfair properties. Specifically, in order to satisfy fairness constraints, it is sometimes preferable, in the name of optimality, to purposefully make mistakes and deny giving the positive label to deserving individuals in a community in favor of less worthy individuals within the same community. This practice is known in the literature as cherry-picking and has been described as ``blatantly unfair.''
- Abstract(参考訳): フェアケーキカット(英: Fair cake-cutting)は、多くの参加者の間でリソースを公平に分割する問題を研究する数学的サブフィールドである。
いわゆる ‘cake' はオブジェクトとして,プレーヤ間で分散可能なリソースを表しています。
この概念は、教師付きマルチラベル分類に関連付けられている。任意のデータセットは、分散する必要があるケーキとみなすことができ、各ラベルはデータセットの共有を受け取るプレーヤである。
特に、データセットの効率的なケーキカットソリューションは、最適な決定関数と等価である。
我々はこの関係を最初に示したわけではないが、この並列性の重要な影響は部分的に忘れられたように思われる。
我々はこれらの古典的な結果を再考し、この接続が機械学習問題における公平性にどのように活用できるかを実証する。
達成可能な公正な決定の集合を理解することは、最適な公正な解を見つけ、公正な要求を満たすための基本的なステップである。
ケーキカット理論のツールを利用することで、最適な公正決定の振る舞いを記述することができました。
具体的には、公正性の制約を満たすために、最適性という名目で、故意に誤りを犯し、同じコミュニティ内の価値の低い個人を優先して、コミュニティ内の個人を保護するための肯定的なラベルを与えることを拒否することが望ましい。
この習慣は、文学ではチェリーピッキングとして知られており、「無礼に不公平」と表現されている。
「」
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - "Patriarchy Hurts Men Too." Does Your Model Agree? A Discussion on Fairness Assumptions [3.706222947143855]
グループフェアネスの文脈では、このアプローチはデータへのバイアスの導入方法に関する暗黙の仮定を曖昧にすることが多い。
我々は偏りの過程が公正スコアの単調関数であり、感度属性のみに依存すると仮定している。
偏見過程の振舞いは単なる単調性よりも複雑であり、つまり暗黙の仮定を特定し、否定する必要がある。
論文 参考訳(メタデータ) (2024-08-01T07:06:30Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Selection, Ignorability and Challenges With Causal Fairness [9.106412307976067]
我々は、このようなことが可能なモデルは、フェアネス文学で一般的に見なされるよく振る舞うクラスの外にある必要があると論じる。
多くのケースでは、より広い人口からサンプルが選択されているため、明示的に拒否することができる。
論文 参考訳(メタデータ) (2022-02-28T13:23:33Z) - Augmented Fairness: An Interpretable Model Augmenting Decision-Makers'
Fairness [10.53972370889201]
ブラックボックス意思決定者の予測バイアスを軽減するためのモデルに依存しない手法を提案する。
提案手法は,ブラックボックス決定器が偏りのある特徴空間において,フェールサロゲート(fair surrogate)として機能する,いくつかの短い決定規則で置き換える手法である。
論文 参考訳(メタデータ) (2020-11-17T03:25:44Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。