論文の概要: Mitigating Discrimination in Insurance with Wasserstein Barycenters
- arxiv url: http://arxiv.org/abs/2306.12912v1
- Date: Thu, 22 Jun 2023 14:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 14:15:26.890510
- Title: Mitigating Discrimination in Insurance with Wasserstein Barycenters
- Title(参考訳): Wasserstein Barycenters による保険の差別の緩和
- Authors: Arthur Charpentier and Fran\c{c}ois Hu and Philipp Ratz
- Abstract要約: 保険業界は、潜在的な顧客の特徴に基づくリスク予測に大きく依存している。
性別や人種などのセンシティブな特徴に基づく差別は、しばしば歴史的データの偏見に起因する。
簡単なスケーリングではなく,Wasserstein Barycentersを用いてバイアスを緩和することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The insurance industry is heavily reliant on predictions of risks based on
characteristics of potential customers. Although the use of said models is
common, researchers have long pointed out that such practices perpetuate
discrimination based on sensitive features such as gender or race. Given that
such discrimination can often be attributed to historical data biases, an
elimination or at least mitigation is desirable. With the shift from more
traditional models to machine-learning based predictions, calls for greater
mitigation have grown anew, as simply excluding sensitive variables in the
pricing process can be shown to be ineffective. In this article, we first
investigate why predictions are a necessity within the industry and why
correcting biases is not as straightforward as simply identifying a sensitive
variable. We then propose to ease the biases through the use of Wasserstein
barycenters instead of simple scaling. To demonstrate the effects and
effectiveness of the approach we employ it on real data and discuss its
implications.
- Abstract(参考訳): 保険業界は潜在的な顧客の特徴に基づくリスクの予測に大きく依存している。
このようなモデルの使用は一般的であるが、研究者は、このような行為が性別や人種のような繊細な特徴に基づく差別を持続させると長い間指摘してきた。
このような差別は、しばしば過去のデータバイアスに起因する可能性があるため、削除または少なくとも緩和が望ましい。
より伝統的なモデルから機械学習ベースの予測へのシフトにより、価格プロセスにおける敏感な変数を単に排除するだけでは効果がないことを示すため、より大きな緩和を求める声が再び高まった。
本稿では、まず、なぜ業界で予測が必須なのか、なぜバイアスの修正が単に感度のある変数を識別するほど単純ではないのかを考察する。
次に,単純なスケーリングではなく,wasserstein barycentersの利用によるバイアス緩和を提案する。
アプローチの効果と効果を実データに適用し,その影響を議論する。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Assumption-free Bias Mitigation [47.5131072745805]
本稿では,バイアス緩和のための特徴相互作用をモデル化することにより,関連する属性を自動的に検出する仮定フリーフレームワークを提案する。
4つの実世界のデータセットに対する実験結果から,提案手法が不公平な予測行動を著しく軽減できることが示された。
論文 参考訳(メタデータ) (2023-07-09T05:55:25Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Controlling Bias Exposure for Fair Interpretable Predictions [11.364105288235308]
盲目的に排除するのではなく、センシティブな情報を「公平に」使うのが望ましいと我々は主張する。
我々のモデルは、偏りのある論理を証拠として生み出すとともに、偏りとタスクパフォーマンスの間の望ましいトレードオフを達成する。
論文 参考訳(メタデータ) (2022-10-14T01:49:01Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。