論文の概要: AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling
- arxiv url: http://arxiv.org/abs/2307.13616v1
- Date: Tue, 25 Jul 2023 16:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 16:20:40.343058
- Title: AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling
- Title(参考訳): 保険におけるaiと倫理 : リスクモデリングにおける代理的差別緩和のための新しいソリューション
- Authors: Marguerite Sauce, Antoine Chancel, and Antoine Ly
- Abstract要約: 保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of Machine Learning is experiencing growing interest from the
general public, and in recent years there have been numerous press articles
questioning its objectivity: racism, sexism, \dots Driven by the growing
attention of regulators on the ethical use of data in insurance, the actuarial
community must rethink pricing and risk selection practices for fairer
insurance. Equity is a philosophy concept that has many different definitions
in every jurisdiction that influence each other without currently reaching
consensus. In Europe, the Charter of Fundamental Rights defines guidelines on
discrimination, and the use of sensitive personal data in algorithms is
regulated. If the simple removal of the protected variables prevents any
so-called `direct' discrimination, models are still able to `indirectly'
discriminate between individuals thanks to latent interactions between
variables, which bring better performance (and therefore a better
quantification of risk, segmentation of prices, and so on). After introducing
the key concepts related to discrimination, we illustrate the complexity of
quantifying them. We then propose an innovative method, not yet met in the
literature, to reduce the risks of indirect discrimination thanks to
mathematical concepts of linear algebra. This technique is illustrated in a
concrete case of risk selection in life insurance, demonstrating its simplicity
of use and its promising performance.
- Abstract(参考訳): 機械学習の開発は一般大衆の関心を集めており、近年、その客観性に疑問を呈する記事が多数出されている:人種差別、性差別、保険におけるデータの倫理的利用に対する規制当局の関心の高まりにより、定期的なコミュニティは、公正な保険の価格とリスク選択プラクティスを再考する必要がある。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において多くの異なる定義を持つ哲学概念である。
ヨーロッパでは、基本権憲章が差別に関するガイドラインを定義しており、アルゴリズムにおける機密データの使用が規制されている。
保護された変数の単純な削除がいわゆる「直接」識別を妨げている場合、モデルはまだ変数間の潜在的な相互作用によって個人間を「間接的に」判別することができるため、より優れたパフォーマンスをもたらす(したがって、リスクの定量化や価格のセグメンテーションなど)。
識別に関する重要な概念を紹介すると、それらの定量化の複雑さが説明される。
次に,線形代数の数学的概念による間接的識別のリスクを低減すべく,文献にない革新的な手法を提案する。
本手法は, 生命保険におけるリスク選択の具体的な事例において, 使用の単純さと有望な性能を示すものである。
関連論文リスト
- Prejudice and Caprice: A Statistical Framework for Measuring Social
Discrimination in Large Language Models [0.0]
大規模言語モデル(LLM)における識別を包括的に計測するPCF(Prejudice-Caprice Framework)を提案する。
我々は,LLMの集合的文脈的識別リスクを,LLMの持続的偏見から生じる偏見リスクと,それらの世代的矛盾から生じるキャプライスリスクに数学的に分解する。
識別測定の枠組みを12の共通LLMに適用し,興味深い結果を得た。
論文 参考訳(メタデータ) (2024-02-23T18:15:56Z) - AI, insurance, discrimination and unfair differentiation. An overview
and research agenda [0.951828574518325]
我々は、保険業者がAIを使用する2つの状況、すなわち(i)データ集約型保険と(ii)行動ベース保険を区別する。
この2つの傾向は多くの利点をもたらすが、差別効果もあるかもしれない。
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
論文 参考訳(メタデータ) (2024-01-22T12:39:36Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Mitigating Discrimination in Insurance with Wasserstein Barycenters [0.0]
保険業界は、潜在的な顧客の特徴に基づくリスク予測に大きく依存している。
性別や人種などのセンシティブな特徴に基づく差別は、しばしば歴史的データの偏見に起因する。
簡単なスケーリングではなく,Wasserstein Barycentersを用いてバイアスを緩和することを提案する。
論文 参考訳(メタデータ) (2023-06-22T14:27:17Z) - A Discussion of Discrimination and Fairness in Insurance Pricing [0.0]
グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
論文 参考訳(メタデータ) (2022-09-02T07:31:37Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。