論文の概要: Ethical and Fairness Implications of Model Multiplicity
- arxiv url: http://arxiv.org/abs/2203.07139v1
- Date: Mon, 14 Mar 2022 14:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:02:53.613143
- Title: Ethical and Fairness Implications of Model Multiplicity
- Title(参考訳): モデル多重性の倫理的・公正性
- Authors: Kacper Sokol and Meelis Kull and Jeffrey Chan and Flora Dilys Salim
- Abstract要約: 本研究では,一種類のモデル群から1つの予測器がアドホックに選択された場合,個人が危害を受けることができるフェアネスの新たな定義について検討する。
以上の結果から, 現実の状況ではこのような不公平さが見られ, 技術的対策だけでは緩和が難しい可能性が示唆された。
- 参考スコア(独自算出の注目度): 15.747770157412958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While predictive models are a purely technological feat, they may operate in
a social context in which benign engineering choices entail unexpected
real-life consequences. Fairness -- pertaining both to individuals and groups
-- is one of such considerations; it surfaces when data capture protected
characteristics of people who may be discriminated upon these attributes. This
notion has predominantly been studied for a fixed predictive model, sometimes
under different classification thresholds, striving to identify and eradicate
its undesirable behaviour. Here we backtrack on this assumption and explore a
novel definition of fairness where individuals can be harmed when one predictor
is chosen ad hoc from a group of equally well performing models, i.e., in view
of model multiplicity. Since a person may be classified differently across
models that are otherwise considered equivalent, this individual could argue
for a model with a more favourable outcome, possibly causing others to be
adversely affected. We introduce this scenario with a two-dimensional example
based on linear classification; then investigate its analytical properties in a
broader context; and finally present experimental results on data sets popular
in fairness studies. Our findings suggest that such unfairness can be found in
real-life situations and may be difficult to mitigate with technical measures
alone, as doing so degrades certain metrics of predictive performance.
- Abstract(参考訳): 予測モデルは純粋に技術的な偉業であるが、工学的選択が予期せぬ現実的な結果をもたらす社会的文脈で機能する。
個人とグループの両方に関する公平さは、そのような考慮事項の1つであり、データがこれらの属性に差別される可能性のある人々の保護された特性をキャプチャするときに表される。
この概念は、しばしば異なる分類しきい値の下で固定された予測モデルのために研究され、望ましくない振る舞いを特定し、根絶しようと試みている。
ここでは、この仮定をバックトラックし、モデルの多重性の観点から、ある予測者が等しくよく機能するモデル群からアドホックに選ばれたときに個人が害を受けることができる公平性の新しい定義を探求する。
同一視されるモデル間で異なる分類をすることができるので、この個人はより好ましい結果をもたらすモデルについて議論し、他のモデルに悪影響をもたらす可能性がある。
このシナリオを線形分類に基づく2次元例で紹介し,その解析的性質をより広い文脈で検討し,最後にフェアネス研究で一般的なデータセットについて実験結果を示す。
以上の結果から, 実生活の状況ではこのような不公平さが見られ, 技術的対策だけでは緩和が困難である可能性が示唆された。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Certifying Fairness of Probabilistic Circuits [33.1089249944851]
本稿では,確率論的モデル,すなわち確率論的回路の一般クラスにおいて,識別パターンを探索するアルゴリズムを提案する。
また、指数関数的に多くの識別パターンを効果的に要約できる最小パターン、最大パターン、最適パターンなどの新しいパターンのクラスも導入する。
論文 参考訳(メタデータ) (2022-12-05T18:36:45Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。