論文の概要: A Discussion of Discrimination and Fairness in Insurance Pricing
- arxiv url: http://arxiv.org/abs/2209.00858v1
- Date: Fri, 2 Sep 2022 07:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:13:57.986928
- Title: A Discussion of Discrimination and Fairness in Insurance Pricing
- Title(参考訳): 保険価格の差別と公平性に関する一考察
- Authors: Mathias Lindholm, Ronald Richman, Andreas Tsanakas, Mario V.
W\"uthrich
- Abstract要約: グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indirect discrimination is an issue of major concern in algorithmic models.
This is particularly the case in insurance pricing where protected policyholder
characteristics are not allowed to be used for insurance pricing. Simply
disregarding protected policyholder information is not an appropriate solution
because this still allows for the possibility of inferring the protected
characteristics from the non-protected ones. This leads to so-called proxy or
indirect discrimination. Though proxy discrimination is qualitatively different
from the group fairness concepts in machine learning, these group fairness
concepts are proposed to 'smooth out' the impact of protected characteristics
in the calculation of insurance prices. The purpose of this note is to share
some thoughts about group fairness concepts in the light of insurance pricing
and to discuss their implications. We present a statistical model that is free
of proxy discrimination, thus, unproblematic from an insurance pricing point of
view. However, we find that the canonical price in this statistical model does
not satisfy any of the three most popular group fairness axioms. This seems
puzzling and we welcome feedback on our example and on the usefulness of these
group fairness axioms for non-discriminatory insurance pricing.
- Abstract(参考訳): 間接的差別はアルゴリズムモデルにおける主要な関心事である。
これは特に保険価格において、保護されたポリシー所有者の特徴が保険価格に使用できない場合である。
これは、保護されていないものから保護された特徴を推測することができるため、単に保護されたポリシー保持者情報を無視することは適切な解決策ではない。
これはプロキシや間接的な差別につながる。
プロキシ識別は機械学習におけるグループフェアネスの概念と質的に異なるが、これらのグループフェアネス概念は、保険価格の計算における保護された特性の影響を「スムース」するために提案されている。
本研究の目的は,グループフェアネスの概念を保険価格の観点から共有し,その意義を議論することである。
本稿では,保険価格の観点からは,代理的差別を含まない統計モデルを提案する。
しかし、この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
当社の例と,非差別的保険価格に対するグループフェアネス公理の有用性に対するフィードバックを歓迎しています。
関連論文リスト
- Proportional Fairness in Obnoxious Facility Location [100.88307501458418]
この問題に対して,距離に基づく比例フェアネスの概念の階層構造を提案する。
決定論的かつランダムなメカニズムを考察し、比例フェアネスの価格に関する厳密な境界を計算する。
論文 参考訳(メタデータ) (2023-01-11T07:30:35Z) - A multi-task network approach for calculating discrimination-free
insurance prices [0.0]
保険価格では、間接的または代理的差別が大きな懸念事項である。
本稿では,保護特性の部分的情報のみを用いて学習可能な,クレーム予測のためのマルチタスクニューラルネットワークアーキテクチャを提案する。
予測精度は従来のフィードフォワードニューラルネットワーク(全情報)に匹敵することがわかった。
論文 参考訳(メタデータ) (2022-07-06T16:36:27Z) - The Fairness of Credit Scoring Models [0.0]
保護されたグループと保護されていないグループの間に統計的に有意な差があるかどうかを検証する方法を示す。
次に、これらの変数を使用してフェアネスとパフォーマンスのトレードオフを最適化します。
本フレームワークは, 規制当局が管理する, 貸し手によるアルゴリズムフェアネスの監視方法についてのガイダンスを提供する。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - A fair pricing model via adversarial learning [0.0]
保険事業の核心はリスクと非リスクの保険の分類にある。
公平なアクチュアリ分類と「差別」の区別は微妙である。
予測器のみの偏りは、適切な精度を維持するには不十分であることを示す。
論文 参考訳(メタデータ) (2022-02-24T10:42:20Z) - Robust Allocations with Diversity Constraints [65.3799850959513]
エージェント値の積を最大化するナッシュ福祉規則は,多様性の制約が導入されたとき,一意にロバストな位置にあることを示す。
また, ナッシュ・ウェルズによる保証は, 広く研究されているアロケーション・ルールのクラスにおいて, ほぼ最適であることを示す。
論文 参考訳(メタデータ) (2021-09-30T11:09:31Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。