論文の概要: Be Intentional About Fairness!: Fairness, Size, and Multiplicity in the Rashomon Set
- arxiv url: http://arxiv.org/abs/2501.15634v1
- Date: Sun, 26 Jan 2025 18:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:59:52.216369
- Title: Be Intentional About Fairness!: Fairness, Size, and Multiplicity in the Rashomon Set
- Title(参考訳): 公正を意識して!-羅生門集合における公正性, サイズ, 多重性
- Authors: Gordon Dai, Pavan Ravishankar, Rachel Yuan, Daniel B. Neill, Emily Black,
- Abstract要約: 概して、等しく正確なモデルの集合、すなわちラショーモン集合の性質について研究する。
私たちのコントリビューションには、このセットからモデルを効率的にサンプリングする方法が含まれています。
我々はまた、個人の予測がラショモン集合の中で反転する確率も導出する。
- 参考スコア(独自算出の注目度): 9.440660971920648
- License:
- Abstract: When selecting a model from a set of equally performant models, how much unfairness can you really reduce? Is it important to be intentional about fairness when choosing among this set, or is arbitrarily choosing among the set of ''good'' models good enough? Recent work has highlighted that the phenomenon of model multiplicity-where multiple models with nearly identical predictive accuracy exist for the same task-has both positive and negative implications for fairness, from strengthening the enforcement of civil rights law in AI systems to showcasing arbitrariness in AI decision-making. Despite the enormous implications of model multiplicity, there is little work that explores the properties of sets of equally accurate models, or Rashomon sets, in general. In this paper, we present five main theoretical and methodological contributions which help us to understand the relatively unexplored properties of the Rashomon set, in particular with regards to fairness. Our contributions include methods for efficiently sampling models from this set and techniques for identifying the fairest models according to key fairness metrics such as statistical parity. We also derive the probability that an individual's prediction will be flipped within the Rashomon set, as well as expressions for the set's size and the distribution of error tolerance used across models. These results lead to policy-relevant takeaways, such as the importance of intentionally looking for fair models within the Rashomon set, and understanding which individuals or groups may be more susceptible to arbitrary decisions.
- Abstract(参考訳): 同じパフォーマンスのモデルからモデルを選択する場合、どの程度の不公平さを減らせるのか?
このセットを選択するときに公平さを意図的に考えることが重要であるか、あるいは'良い'モデルのセットの中から任意に選ぶことが重要であるか?
最近の研究は、同じタスクに対してほぼ同一の予測精度を持つモデル多重性という現象が存在していることを強調している。
モデル乗法が巨大な意味を持つにもかかわらず、概して同じ精度のモデル、すなわちラショーモン集合の性質を探求する研究はほとんどない。
本稿では,ラーショモン集合の比較的未探索な性質,特に公正性について理解するための5つの主要な理論的および方法論的貢献について述べる。
我々の貢献には、この集合からモデルを効率的にサンプリングする方法と、統計パリティのような重要な公正度指標に従って最も公平なモデルを特定する手法が含まれる。
また、各個体の予測がラショモン集合内で反転する確率や、集合のサイズやモデル全体で使用される誤差耐性の分布の式も導出する。
これらの結果は、故意に羅生門集合内の公正なモデルを探すことの重要性や、個人や集団が任意の決定に対してより影響を受けやすいことを理解することなど、政策に関係したテイクアウトにつながっている。
関連論文リスト
- Fairness and Sparsity within Rashomon sets: Enumeration-Free Exploration and Characterization [4.554831326324025]
本研究では,数理プログラミングに基づく列挙自由法を導入し,公平さや疎さなどの諸特性を特徴付ける。
提案手法を2つの仮説クラス(スコアリングシステムと決定図)に適用する。
論文 参考訳(メタデータ) (2025-02-07T19:43:34Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation [3.548416925804316]
この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
論文 参考訳(メタデータ) (2021-04-01T15:06:13Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。