論文の概要: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- arxiv url: http://arxiv.org/abs/2401.11892v1
- Date: Mon, 22 Jan 2024 12:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:10:48.535460
- Title: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- Title(参考訳): AI、保険、差別、不公平な差別。
概要と研究課題
- Authors: Marvin S. L. van Bekkum, Frederik J. Zuiderveen Borgesius
- Abstract要約: 我々は、保険業者がAIを使用する2つの状況、すなわち(i)データ集約型保険と(ii)行動ベース保険を区別する。
この2つの傾向は多くの利点をもたらすが、差別効果もあるかもしれない。
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
- 参考スコア(独自算出の注目度): 0.951828574518325
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Insurers increasingly use AI. We distinguish two situations in which insurers
use AI: (i) data-intensive underwriting, and (ii) behaviour-based insurance.
(i) First, insurers can use AI for data analysis to assess risks:
data-intensive underwriting. Underwriting is, in short, calculating risks and
amending the insurance premium accordingly. (ii) Second, insurers can use AI to
monitor the behaviour of consumers in real-time: behaviour-based insurance. For
example, some car insurers give a discount if a consumer agrees to being
tracked by the insurer and drives safely. While the two trends bring many
advantages, they may also have discriminatory effects. This paper focuses on
the following question. Which discrimination-related effects may occur if
insurers use data-intensive underwriting and behaviour-based insurance? We
focus on two types of discrimination-related effects: discrimination and other
unfair differentiation. (i) Discrimination harms certain groups who are
protected by non-discrimination law, for instance people with certain
ethnicities. (ii) Unfair differentiation does not harm groups that are
protected by non-discrimination law, but it does seem unfair. We introduce four
factors to consider when assessing the fairness of insurance practices. The
paper builds on literature from various disciplines including law, philosophy,
and computer science.
- Abstract(参考訳): 保険会社はますますAIを使う。
保険会社がaiを使う2つの状況を区別します
(i)データ集約的な引受、及び
(ii)行動に基づく保険。
(i)まず、保険会社はデータ分析にaiを使用してリスクを評価することができる。
引受は、要するにリスクを計算し、それに応じて保険料を補正する。
第二に、保険業者はAIを使ってリアルタイムで消費者の行動を監視することができる。
例えば、一部の自動車保険会社は、消費者が保険会社が追跡して安全に運転することに同意した場合に割引を行う。
この2つの傾向は多くの利点をもたらすが、差別効果もある。
本稿では,以下の問題に焦点をあてる。
保険会社がデータ集約型保険や行動ベース保険を使用する場合、どのような差別関連効果が生じるか?
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
(i)差別は、非差別法で保護されている特定のグループ、例えば特定の民族を持つ人々に害を与える。
(二)非差別法で保護されている集団に不公平な差別は及ばないが、不公平に思われる。
保険制度の公正性を評価する際に考慮すべき4つの要因を紹介する。
この論文は、法、哲学、計算機科学を含む様々な分野の文学に基づいている。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling [0.0]
保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
論文 参考訳(メタデータ) (2023-07-25T16:20:56Z) - Counterfactual Situation Testing: Uncovering Discrimination under
Fairness given the Difference [26.695316585522527]
本稿では,分類器の識別を行う因果データマイニングフレームワークであるCSTについて述べる。
CSTは「モデルの結果が、個人、または不平が、異なる保護された状態であったとしたら、どんな結果だったのか?
論文 参考訳(メタデータ) (2023-02-23T11:41:21Z) - A Discussion of Discrimination and Fairness in Insurance Pricing [0.0]
グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
論文 参考訳(メタデータ) (2022-09-02T07:31:37Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception? [0.0]
ヨーロッパでは、AIシステムが誤って民族によって差別されるかどうかを評価しようとすると、組織が問題に直面します。
原則として、特定の「特定のデータのカテゴリ」の使用を禁じる。
本稿では、個人データの特殊カテゴリに関するルールが、AIによる差別の防止を妨げているかどうかを問う。
論文 参考訳(メタデータ) (2022-05-17T07:39:25Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Auditing for Discrimination in Algorithms Delivering Job Ads [70.02478301291264]
我々は,求人広告配信における識別アルゴリズムのブラックボックス監査のための新しい手法を開発した。
最初のコントリビューションは、性別や人種などの保護されたカテゴリーによる、広告配信における歪の区別です。
第2に,他の要因と資格の違いによって説明可能なスクリューを区別する監査手法を開発する。
第3に、提案手法を求人広告のための2つの主要なターゲット広告プラットフォーム、FacebookとLinkedInに適用する。
論文 参考訳(メタデータ) (2021-04-09T17:38:36Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。