論文の概要: AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling
- arxiv url: http://arxiv.org/abs/2307.13616v1
- Date: Tue, 25 Jul 2023 16:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 16:20:40.343058
- Title: AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling
- Title(参考訳): 保険におけるaiと倫理 : リスクモデリングにおける代理的差別緩和のための新しいソリューション
- Authors: Marguerite Sauce, Antoine Chancel, and Antoine Ly
- Abstract要約: 保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of Machine Learning is experiencing growing interest from the
general public, and in recent years there have been numerous press articles
questioning its objectivity: racism, sexism, \dots Driven by the growing
attention of regulators on the ethical use of data in insurance, the actuarial
community must rethink pricing and risk selection practices for fairer
insurance. Equity is a philosophy concept that has many different definitions
in every jurisdiction that influence each other without currently reaching
consensus. In Europe, the Charter of Fundamental Rights defines guidelines on
discrimination, and the use of sensitive personal data in algorithms is
regulated. If the simple removal of the protected variables prevents any
so-called `direct' discrimination, models are still able to `indirectly'
discriminate between individuals thanks to latent interactions between
variables, which bring better performance (and therefore a better
quantification of risk, segmentation of prices, and so on). After introducing
the key concepts related to discrimination, we illustrate the complexity of
quantifying them. We then propose an innovative method, not yet met in the
literature, to reduce the risks of indirect discrimination thanks to
mathematical concepts of linear algebra. This technique is illustrated in a
concrete case of risk selection in life insurance, demonstrating its simplicity
of use and its promising performance.
- Abstract(参考訳): 機械学習の開発は一般大衆の関心を集めており、近年、その客観性に疑問を呈する記事が多数出されている:人種差別、性差別、保険におけるデータの倫理的利用に対する規制当局の関心の高まりにより、定期的なコミュニティは、公正な保険の価格とリスク選択プラクティスを再考する必要がある。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において多くの異なる定義を持つ哲学概念である。
ヨーロッパでは、基本権憲章が差別に関するガイドラインを定義しており、アルゴリズムにおける機密データの使用が規制されている。
保護された変数の単純な削除がいわゆる「直接」識別を妨げている場合、モデルはまだ変数間の潜在的な相互作用によって個人間を「間接的に」判別することができるため、より優れたパフォーマンスをもたらす(したがって、リスクの定量化や価格のセグメンテーションなど)。
識別に関する重要な概念を紹介すると、それらの定量化の複雑さが説明される。
次に,線形代数の数学的概念による間接的識別のリスクを低減すべく,文献にない革新的な手法を提案する。
本手法は, 生命保険におけるリスク選択の具体的な事例において, 使用の単純さと有望な性能を示すものである。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Prejudice and Volatility: A Statistical Framework for Measuring Social Discrimination in Large Language Models [0.0]
本研究では,Large Language Models (LLMs) の生成における不整合が社会的不正を誘発し,さらに悪化させる可能性について検討した。
LLMを評価するための行動指標を正確に定義するPrejudice-Volatility Framework(PVF)を定式化する。
我々は,LLMの集合的差別リスクを,システムバイアスやボラティリティリスクから生じる偏見リスクに数学的に分解する。
論文 参考訳(メタデータ) (2024-02-23T18:15:56Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Mitigating Discrimination in Insurance with Wasserstein Barycenters [0.0]
保険業界は、潜在的な顧客の特徴に基づくリスク予測に大きく依存している。
性別や人種などのセンシティブな特徴に基づく差別は、しばしば歴史的データの偏見に起因する。
簡単なスケーリングではなく,Wasserstein Barycentersを用いてバイアスを緩和することを提案する。
論文 参考訳(メタデータ) (2023-06-22T14:27:17Z) - A Discussion of Discrimination and Fairness in Insurance Pricing [0.0]
グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
論文 参考訳(メタデータ) (2022-09-02T07:31:37Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Marrying Fairness and Explainability in Supervised Learning [0.0]
我々は、保護属性の直接的な因果効果として直接識別を定式化する。
我々は、最先端のフェアラーニング手法は、関連性や逆の差別によって差別を誘発することができることを発見した。
本稿では,保護された属性がシステムの出力に与える影響を無効にするとともに,残りの特徴の影響を保存することを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:26:58Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。