論文の概要: Identifying, measuring, and mitigating individual unfairness for
supervised learning models and application to credit risk models
- arxiv url: http://arxiv.org/abs/2211.06106v1
- Date: Fri, 11 Nov 2022 10:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:46:55.239946
- Title: Identifying, measuring, and mitigating individual unfairness for
supervised learning models and application to credit risk models
- Title(参考訳): 教師付き学習モデルにおける個人不公平の識別・測定・緩和と信用リスクモデルへの応用
- Authors: Rasoul Shahsavarifar, Jithu Chandran, Mario Inchiosa, Amit Deshpande,
Mario Schlener, Vishal Gossain, Yara Elias, Vinaya Murali
- Abstract要約: AIソリューションにおける個人の不公平性を識別し緩和することに注力する。
また,グループフェアネスを達成するために,個人フェアネスを達成する技術が有効である範囲についても検討した。
個々の不公平性軽減技術に対応する実験結果が提示される。
- 参考スコア(独自算出の注目度): 3.818578543491318
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the past few years, Artificial Intelligence (AI) has garnered attention
from various industries including financial services (FS). AI has made a
positive impact in financial services by enhancing productivity and improving
risk management. While AI can offer efficient solutions, it has the potential
to bring unintended consequences. One such consequence is the pronounced effect
of AI-related unfairness and attendant fairness-related harms. These
fairness-related harms could involve differential treatment of individuals; for
example, unfairly denying a loan to certain individuals or groups of
individuals. In this paper, we focus on identifying and mitigating individual
unfairness and leveraging some of the recently published techniques in this
domain, especially as applicable to the credit adjudication use case. We also
investigate the extent to which techniques for achieving individual fairness
are effective at achieving group fairness. Our main contribution in this work
is functionalizing a two-step training process which involves learning a fair
similarity metric from a group sense using a small portion of the raw data and
training an individually "fair" classifier using the rest of the data where the
sensitive features are excluded. The key characteristic of this two-step
technique is related to its flexibility, i.e., the fair metric obtained in the
first step can be used with any other individual fairness algorithms in the
second step. Furthermore, we developed a second metric (distinct from the fair
similarity metric) to determine how fairly a model is treating similar
individuals. We use this metric to compare a "fair" model against its baseline
model in terms of their individual fairness value. Finally, some experimental
results corresponding to the individual unfairness mitigation techniques are
presented.
- Abstract(参考訳): ここ数年、人工知能(AI)は金融サービス(FS)を含む様々な産業から注目を集めてきた。
AIは生産性を高め、リスク管理を改善することで、金融サービスに肯定的な影響を与えた。
AIは効率的なソリューションを提供するが、意図しない結果をもたらす可能性がある。
そのような結果の1つは、ai関連不公平と付随するフェアネス関連害の発音効果である。
これらの公平性に関連した損害は、個人の異なる扱いを伴う可能性がある。例えば、特定の個人または個人のグループへの不当な融資を拒否するなど。
本稿では,個人の不公平性を特定し,緩和することに着目し,この領域で最近発表された技術,特に信用判断のユースケースに適用する。
また,グループフェアネスを達成するために,個人フェアネスを達成する技術が有効である範囲についても検討した。
本研究の主な貢献は、生データのごく一部を用いてグループ感覚から公正な類似度メトリックを学習し、機密性を排除したデータの残りの部分を用いて個別に「公正」分類器を訓練する2段階の学習プロセスを機能化することである。
この2段階法の鍵となる特徴は、その柔軟性、すなわち、第1ステップで得られたフェアメトリックは、第2ステップで他の任意の個別フェアネスアルゴリズムで使用できることである。
さらに、モデルが類似した個人をどのように扱うかを決定するための第2の指標(公正類似度測定値とは異なる)を開発した。
この計量を用いて、それぞれの公正度値の基準モデルと「フェア」モデルを比較します。
最後に、個々の不公平性軽減技術に対応する実験結果を示す。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。