論文の概要: A Discussion of Discrimination and Fairness in Insurance Pricing
- arxiv url: http://arxiv.org/abs/2209.00858v1
- Date: Fri, 2 Sep 2022 07:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:13:57.986928
- Title: A Discussion of Discrimination and Fairness in Insurance Pricing
- Title(参考訳): 保険価格の差別と公平性に関する一考察
- Authors: Mathias Lindholm, Ronald Richman, Andreas Tsanakas, Mario V.
W\"uthrich
- Abstract要約: グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indirect discrimination is an issue of major concern in algorithmic models.
This is particularly the case in insurance pricing where protected policyholder
characteristics are not allowed to be used for insurance pricing. Simply
disregarding protected policyholder information is not an appropriate solution
because this still allows for the possibility of inferring the protected
characteristics from the non-protected ones. This leads to so-called proxy or
indirect discrimination. Though proxy discrimination is qualitatively different
from the group fairness concepts in machine learning, these group fairness
concepts are proposed to 'smooth out' the impact of protected characteristics
in the calculation of insurance prices. The purpose of this note is to share
some thoughts about group fairness concepts in the light of insurance pricing
and to discuss their implications. We present a statistical model that is free
of proxy discrimination, thus, unproblematic from an insurance pricing point of
view. However, we find that the canonical price in this statistical model does
not satisfy any of the three most popular group fairness axioms. This seems
puzzling and we welcome feedback on our example and on the usefulness of these
group fairness axioms for non-discriminatory insurance pricing.
- Abstract(参考訳): 間接的差別はアルゴリズムモデルにおける主要な関心事である。
これは特に保険価格において、保護されたポリシー所有者の特徴が保険価格に使用できない場合である。
これは、保護されていないものから保護された特徴を推測することができるため、単に保護されたポリシー保持者情報を無視することは適切な解決策ではない。
これはプロキシや間接的な差別につながる。
プロキシ識別は機械学習におけるグループフェアネスの概念と質的に異なるが、これらのグループフェアネス概念は、保険価格の計算における保護された特性の影響を「スムース」するために提案されている。
本研究の目的は,グループフェアネスの概念を保険価格の観点から共有し,その意義を議論することである。
本稿では,保険価格の観点からは,代理的差別を含まない統計モデルを提案する。
しかし、この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
当社の例と,非差別的保険価格に対するグループフェアネス公理の有用性に対するフィードバックを歓迎しています。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling [0.0]
保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
論文 参考訳(メタデータ) (2023-07-25T16:20:56Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Proportional Fairness in Obnoxious Facility Location [70.64736616610202]
この問題に対して,距離に基づく比例フェアネスの概念の階層構造を提案する。
決定論的かつランダムなメカニズムを考察し、比例フェアネスの価格に関する厳密な境界を計算する。
モデルの拡張が2つあることを示す。
論文 参考訳(メタデータ) (2023-01-11T07:30:35Z) - A multi-task network approach for calculating discrimination-free
insurance prices [0.0]
保険価格では、間接的または代理的差別が大きな懸念事項である。
本稿では,保護特性の部分的情報のみを用いて学習可能な,クレーム予測のためのマルチタスクニューラルネットワークアーキテクチャを提案する。
予測精度は従来のフィードフォワードニューラルネットワーク(全情報)に匹敵することがわかった。
論文 参考訳(メタデータ) (2022-07-06T16:36:27Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - A Fair Pricing Model via Adversarial Learning [3.983383967538961]
保険事業の核心はリスクと非リスクの保険の分類にある。
公平なアクチュアリ分類と「差別」の区別は微妙である。
予測器のみの偏りは、適切な精度を維持するには不十分であることを示す。
論文 参考訳(メタデータ) (2022-02-24T10:42:20Z) - Robust Allocations with Diversity Constraints [65.3799850959513]
エージェント値の積を最大化するナッシュ福祉規則は,多様性の制約が導入されたとき,一意にロバストな位置にあることを示す。
また, ナッシュ・ウェルズによる保証は, 広く研究されているアロケーション・ルールのクラスにおいて, ほぼ最適であることを示す。
論文 参考訳(メタデータ) (2021-09-30T11:09:31Z) - Black Loans Matter: Distributionally Robust Fairness for Fighting
Subgroup Discrimination [23.820606347327686]
貸付におけるアルゴリズム的公正性は、保護されたグループ間の統計的公平性を監視するためにグループフェアネスの指標に依存する。
このアプローチは、代理によるサブグループ差別に対して脆弱であり、銀行員に法的、評判の高い損害の重大なリスクをもたらす。
われわれはこの問題を、米国における歴史的および残酷な人種差別の背景から、利用可能なトレーニングデータ全てを汚染する動機付けている。
論文 参考訳(メタデータ) (2020-11-27T21:04:07Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。