論文の概要: Cherry on the Cake: Fairness is NOT an Optimization Problem
- arxiv url: http://arxiv.org/abs/2406.16606v2
- Date: Thu, 19 Dec 2024 08:53:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:28:37.366325
- Title: Cherry on the Cake: Fairness is NOT an Optimization Problem
- Title(参考訳): Cherry on the Cake:フェアネスは最適化の問題ではない
- Authors: Marco Favier, Toon Calders,
- Abstract要約: 公正なAI文学では、不正なモデルを悪質に作成するプラクティスは「チェリーピッキング」として知られている。
チェリーピッキングモデル(英: cherry-picking model)は、意図的にミスをし、同じ少数派の候補者ではなく、少数層の悪い個人を選択するモデルである。
フェアネスの指標を最小限に抑えるために最適化されたモデルを示す一方で、性能を最大化するためには、チェリーピックをある程度強制されることがしばしばある。
- 参考スコア(独自算出の注目度): 3.706222947143855
- License:
- Abstract: In Fair AI literature, the practice of maliciously creating unfair models that nevertheless satisfy fairness constraints is known as "cherry-picking". A cherry-picking model is a model that makes mistakes on purpose, selecting bad individuals from a minority class instead of better candidates from the same minority. The model literally cherry-picks whom to select to superficially meet the fairness constraints while making minimal changes to the unfair model. This practice has been described as "blatantly unfair" and has a negative impact on already marginalized communities, undermining the intended purpose of fairness measures specifically designed to protect these communities. A common assumption is that cherry-picking arises solely from malicious intent and that models designed only to optimize fairness metrics would avoid this behavior. We show that this is not the case: models optimized to minimize fairness metrics while maximizing performance are often forced to cherry-pick to some degree. In other words, cherry-picking might be an inevitable outcome of the optimization process itself. To demonstrate this, we use tools from fair cake-cutting, a mathematical subfield that studies the problem of fairly dividing a resource, referred to as the "cake," among a number of participants. This concept is connected to supervised multi-label classification: any dataset can be thought of as a cake that needs to be distributed among different labels, and the model is the function that divides the cake. We adapt these classical results for machine learning and demonstrate how this connection can be prolifically used for fairness and classification in general.
- Abstract(参考訳): 公正なAI文学において、公平な制約を満たす不公平なモデルを悪意的に作成するプラクティスは「チェリーピッキング」として知られている。
チェリーピッキングモデル(英: cherry-picking model)は、意図的にミスをし、同じ少数派の候補者ではなく、少数層の悪い個人を選択するモデルである。
モデルは文字通り、不公平なモデルに最小限の変更を加えながら、フェアネスの制約を表面的に満たすよう選択するチェリーピックである。
この慣行は「黒人的に不公平」と表現され、既に疎外化されているコミュニティに悪影響を及ぼし、これらのコミュニティを保護するために特別に設計された公正性対策の意図を損なうことになる。
一般的な仮定は、チェリーピッキングは悪意のある意図からのみ発生し、公平度測定を最適化するためにのみ設計されたモデルは、この行動を避けてしまうというものである。
フェアネス指標の最小化に最適化されたモデルと、パフォーマンスの最大化は、ある程度のチェリーピックを余儀なくされることがよくあります。
言い換えれば、チェリーピッキングは最適化プロセス自体の避けられない結果かもしれない。
これを実証するために、私たちは、多くの参加者の間で「ケーキ」と呼ばれるリソースを公平に分割する問題を研究する数学的サブフィールドであるフェアケーキカットのツールを使用します。
この概念は、教師付きマルチラベル分類に関連付けられている。任意のデータセットは、異なるラベルに分散する必要があるケーキとみなすことができ、モデルは、ケーキを分割する関数である。
我々はこれらの古典的な結果を機械学習に適用し、この接続が一般に公正さと分類にどのように活用できるかを実証する。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - "Patriarchy Hurts Men Too." Does Your Model Agree? A Discussion on Fairness Assumptions [3.706222947143855]
グループフェアネスの文脈では、このアプローチはデータへのバイアスの導入方法に関する暗黙の仮定を曖昧にすることが多い。
我々は偏りの過程が公正スコアの単調関数であり、感度属性のみに依存すると仮定している。
偏見過程の振舞いは単なる単調性よりも複雑であり、つまり暗黙の仮定を特定し、否定する必要がある。
論文 参考訳(メタデータ) (2024-08-01T07:06:30Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Selection, Ignorability and Challenges With Causal Fairness [9.106412307976067]
我々は、このようなことが可能なモデルは、フェアネス文学で一般的に見なされるよく振る舞うクラスの外にある必要があると論じる。
多くのケースでは、より広い人口からサンプルが選択されているため、明示的に拒否することができる。
論文 参考訳(メタデータ) (2022-02-28T13:23:33Z) - Augmented Fairness: An Interpretable Model Augmenting Decision-Makers'
Fairness [10.53972370889201]
ブラックボックス意思決定者の予測バイアスを軽減するためのモデルに依存しない手法を提案する。
提案手法は,ブラックボックス決定器が偏りのある特徴空間において,フェールサロゲート(fair surrogate)として機能する,いくつかの短い決定規則で置き換える手法である。
論文 参考訳(メタデータ) (2020-11-17T03:25:44Z) - Making ML models fairer through explanations: the case of LimeOut [7.952582509792971]
アルゴリズムによる決定は今では日常的に使われており、複雑でバイアスのかかる機械学習(ML)プロセスに基づいている。
これは、偏見のある決定が個人や社会全体に与える影響を考えると、いくつかの懸念を提起する。
モデルフェアネスを改善するために,「フィーチャードロップアウト」というシンプルなアイデアと「アンサンブルアプローチ」を併用する方法について述べる。
論文 参考訳(メタデータ) (2020-11-01T19:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。