論文の概要: Understanding Instance-Level Impact of Fairness Constraints
- arxiv url: http://arxiv.org/abs/2206.15437v1
- Date: Thu, 30 Jun 2022 17:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 17:46:06.028337
- Title: Understanding Instance-Level Impact of Fairness Constraints
- Title(参考訳): フェアネス制約のインスタンスレベル影響の理解
- Authors: Jialu Wang and Xin Eric Wang and Yang Liu
- Abstract要約: 公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
- 参考スコア(独自算出の注目度): 12.866655972682254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A variety of fairness constraints have been proposed in the literature to
mitigate group-level statistical bias. Their impacts have been largely
evaluated for different groups of populations corresponding to a set of
sensitive attributes, such as race or gender. Nonetheless, the community has
not observed sufficient explorations for how imposing fairness constraints fare
at an instance level. Building on the concept of influence function, a measure
that characterizes the impact of a training example on the target model and its
predictive performance, this work studies the influence of training examples
when fairness constraints are imposed. We find out that under certain
assumptions, the influence function with respect to fairness constraints can be
decomposed into a kernelized combination of training examples. One promising
application of the proposed fairness influence function is to identify
suspicious training examples that may cause model discrimination by ranking
their influence scores. We demonstrate with extensive experiments that training
on a subset of weighty data examples leads to lower fairness violations with a
trade-off of accuracy.
- Abstract(参考訳): グループレベルの統計バイアスを軽減するために、文献で様々な公正性の制約が提案されている。
それらの影響は、人種や性別などのセンシティブな属性のセットに対応する異なる集団のグループに対して大きく評価されている。
それにもかかわらず、コミュニティはインスタンスレベルで公正な制約を課すための十分な調査を観察していない。
対象モデルに対するトレーニング例の影響とその予測性能を特徴付ける指標である影響関数の概念に基づいて,公平性制約が課される場合のトレーニング例の影響を考察する。
ある仮定の下では、公平性制約に対する影響関数は、訓練例のカーネル化された組み合わせに分解できることがわかった。
提案した公正影響関数の有望な応用の一つは、その影響スコアをランク付けすることでモデル判別を引き起こす疑わしい訓練例を特定することである。
重みのあるデータ例のサブセットでのトレーニングが、正確性のトレードオフを伴う公平性違反の低減につながることを示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - On the Cause of Unfairness: A Training Sample Perspective [13.258569961897907]
私たちは、トレーニングデータのレンズを通して問題を調べます。
本研究では、事前定義された概念に基づいて、サンプルを非現実的に変更することで、トレーニングサンプルが不公平性に与える影響を定量化する。
我々のフレームワークは、観察された不公平さを理解し、トレーニングデータを修復することで軽減するだけでなく、他の多くの応用にもつながります。
論文 参考訳(メタデータ) (2023-06-30T17:48:19Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness [14.710365964629066]
トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
本稿では,不公平化の指標として全変量を導入し,そのインセンティブが生じる可能性のあるグラフィカルな条件を確立することを提案する。
論文 参考訳(メタデータ) (2022-02-22T11:16:26Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z) - RelatIF: Identifying Explanatory Training Examples via Relative
Influence [13.87851325824883]
インフルエンス関数を使用して、関連するトレーニング例を特定し、機械学習モデルの予測を"説明"することを望んでいます。
本稿では,グローバルな影響に制約を課す最適化目標を用いて,関連するトレーニング事例を選択するための新しい基準であるRelatIFを紹介する。
経験的評価では、RelatIFで返される例は影響関数を用いた例に比べて直感的であることが判明した。
論文 参考訳(メタデータ) (2020-03-25T20:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。