論文の概要: The Fairness of Machine Learning in Insurance: New Rags for an Old Man?
- arxiv url: http://arxiv.org/abs/2205.08112v1
- Date: Tue, 17 May 2022 06:22:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:57:02.720317
- Title: The Fairness of Machine Learning in Insurance: New Rags for an Old Man?
- Title(参考訳): 保険における機械学習の公正性:老人のための新しいラグ?
- Authors: Laurence Barry and Arthur Charpentier
- Abstract要約: いくつかのアルゴリズムバイアスは古いバイアスの更新版であり、あるアルゴリズムバイアスは以前の順序を逆転させるものであることを示す。
逆説的に、保険の慣行は深く変化していないし、バイアスも新しくないが、機械学習の時代は依然として保険の公正性の概念を揺るがしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the beginning of their history, insurers have been known to use data to
classify and price risks. As such, they were confronted early on with the
problem of fairness and discrimination associated with data. This issue is
becoming increasingly important with access to more granular and behavioural
data, and is evolving to reflect current technologies and societal concerns. By
looking into earlier debates on discrimination, we show that some algorithmic
biases are a renewed version of older ones, while others show a reversal of the
previous order. Paradoxically, while the insurance practice has not deeply
changed nor are most of these biases new, the machine learning era still deeply
shakes the conception of insurance fairness.
- Abstract(参考訳): その歴史の始まりから、保険会社はデータを使ってリスクの分類と価格設定をしてきた。
そのため、彼らはデータに関する公平性と差別の問題に早くから直面していた。
この問題は、より粒度の細かい行動データへのアクセスによってますます重要になってきており、現在の技術や社会的懸念を反映するように進化している。
差別に関する以前の議論を見てみると、アルゴリズムの偏見が古いものの新しいバージョンであるのに対し、以前の順序の逆転を示すものもある。
逆説的に、保険の慣行は深く変化していないし、バイアスも新しくないが、機械学習の時代は依然として保険の公正性の概念を揺るがしている。
関連論文リスト
- A Machine Learning-based Anomaly Detection Framework in Life Insurance Contracts [0.0]
生命保険は大量のデータに大きく依存している。
データベースに格納されたデータの完全性への信頼が不可欠です。
データ信頼性を保証する方法の1つは、異常の自動検出である。
論文 参考訳(メタデータ) (2024-11-26T15:06:12Z) - AI, insurance, discrimination and unfair differentiation. An overview and research agenda [0.6144680854063939]
保険会社は人工知能(AI)によって実現された2つのトレンドに魅了されているようだ
まず、保険会社はAIを使って、より正確にリスクを評価するために、より新しいタイプのデータを分析することができる。
第二に、保険会社はAIを使用して、個々の消費者の行動をリアルタイムで監視することができる。
この2つの傾向は多くの利点をもたらすが、社会に差別的影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-01-22T12:39:36Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Mitigating Discrimination in Insurance with Wasserstein Barycenters [0.0]
保険業界は、潜在的な顧客の特徴に基づくリスク予測に大きく依存している。
性別や人種などのセンシティブな特徴に基づく差別は、しばしば歴史的データの偏見に起因する。
簡単なスケーリングではなく,Wasserstein Barycentersを用いてバイアスを緩和することを提案する。
論文 参考訳(メタデータ) (2023-06-22T14:27:17Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Prediction of motor insurance claims occurrence as an imbalanced machine
learning problem [0.0]
巨大なデータセットを持つ保険業界は、ビッグデータソリューションを使用する自然な場所です。
この研究の主な目的は、不均衡なデータセットを扱う様々な方法を提示し、適用することである。
また,自動車保険におけるクレーム発生予測の文脈において,これらの手法を用いて機械学習アルゴリズムの結果を比較した。
論文 参考訳(メタデータ) (2022-04-12T22:41:47Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Active Fairness Instead of Unawareness [2.878329609343415]
多くの現行の法定基準では、「無意識による公正」を達成するために、データからセンシティブな属性を取り除くことを求めている。
高い相関属性を持つ大きなデータセットが一般的であるビッグデータの時代において、このアプローチは時代遅れである、と我々は主張する。
論文 参考訳(メタデータ) (2020-09-14T08:14:17Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Cross-ethnicity Face Anti-spoofing Recognition Challenge: A Review [79.49390241265337]
Chalearn Face Anti-Spoofing Detection Challengeは、シングルモーダル(例えば、RGB)とマルチモーダル(例えば、RGB、Depth、赤外線(IR))のトラックで構成されている。
本稿では,その設計,評価プロトコル,結果の概要など,課題の概要について述べる。
論文 参考訳(メタデータ) (2020-04-23T06:43:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。