論文の概要: Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model
Multiplicity
- arxiv url: http://arxiv.org/abs/2203.07139v3
- Date: Thu, 17 Aug 2023 14:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 20:12:51.138577
- Title: Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model
Multiplicity
- Title(参考訳): クロスモデルフェアネス:モデル多重性下におけるフェアネスと倫理の実証的研究
- Authors: Kacper Sokol and Meelis Kull and Jeffrey Chan and Flora Dilys Salim
- Abstract要約: 1つの予測者が同じパフォーマンスモデルのグループからアドホックに選択された場合、個人は害を受ける可能性がある、と我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
- 参考スコア(独自算出の注目度): 12.413003090604093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While data-driven predictive models are a strictly technological construct,
they may operate within a social context in which benign engineering choices
entail implicit, indirect and unexpected real-life consequences. Fairness of
such systems -- pertaining both to individuals and groups -- is one relevant
consideration in this space; it arises when data capture protected
characteristics upon which people may be discriminated. To date, this notion
has predominantly been studied for a fixed model, often under different
classification thresholds, striving to identify and eradicate undesirable,
discriminative and possibly unlawful aspects of its operation. Here, we
backtrack on this fixed model assumption to propose and explore a novel
definition of cross-model fairness where individuals can be harmed when one
predictor is chosen ad hoc from a group of equally-well performing models,
i.e., in view of utility-based model multiplicity. Since a person may be
classified differently across models that are otherwise considered equivalent,
this individual could argue for a predictor granting them the most favourable
outcome, employing which may have adverse effects on others. We introduce this
scenario with a two-dimensional example and linear classification; then, we
present a comprehensive empirical study based on real-life predictive models
and data sets that are popular with the algorithmic fairness community;
finally, we investigate analytical properties of cross-model fairness and its
ramifications in a broader context. Our findings suggest that such unfairness
can be readily found in the real life and it may be difficult to mitigate by
technical means alone as doing so is likely to degrade predictive performance.
- Abstract(参考訳): データ駆動予測モデルは厳密な技術的構成であるが、特定の工学的選択が暗黙的、間接的、予期せぬ現実的な結果をもたらす社会的文脈の中で機能する。
このようなシステムの公平性(個人とグループの両方に関するもの)は、この空間において重要な考慮事項のひとつであり、人々が差別される可能性のある保護された特性をデータが捉えた時に発生する。
今まで、この概念は、しばしば異なる分類しきい値の下で固定されたモデルに対して研究され、望ましくない、差別的で、おそらく違法な操作の側面を特定し、根絶しようと試みてきた。
ここでは、この固定モデル仮定をバックトラックし、実用性に基づくモデル乗法の観点から、1つの予測器が等しく動作するモデル群からアドホックに選択されたときに個人が害を受けることのできる、クロスモデルフェアネスの新たな定義を提案し、探求する。
同一視されるモデル間で異なる分類をすることができるので、この個人は予測者に対して最も好ましい結果を与え、他のモデルに悪影響を及ぼす可能性があることを議論することができる。
そこで我々は,このシナリオを2次元の例と線形分類を用いて紹介し,アルゴリズムフェアネスコミュニティで人気がある実生活予測モデルとデータセットに基づく包括的実証研究を行い,最後に,クロスモデルフェアネスの解析的性質とその影響を広い文脈で検討する。
以上の結果から,このような不公平さは実生活で容易に発見できることが示唆され,技術的手法だけでは予測性能を低下させる可能性が示唆された。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Certifying Fairness of Probabilistic Circuits [33.1089249944851]
本稿では,確率論的モデル,すなわち確率論的回路の一般クラスにおいて,識別パターンを探索するアルゴリズムを提案する。
また、指数関数的に多くの識別パターンを効果的に要約できる最小パターン、最大パターン、最適パターンなどの新しいパターンのクラスも導入する。
論文 参考訳(メタデータ) (2022-12-05T18:36:45Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。