論文の概要: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- arxiv url: http://arxiv.org/abs/2401.11892v1
- Date: Mon, 22 Jan 2024 12:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:10:48.535460
- Title: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- Title(参考訳): AI、保険、差別、不公平な差別。
概要と研究課題
- Authors: Marvin S. L. van Bekkum, Frederik J. Zuiderveen Borgesius
- Abstract要約: 我々は、保険業者がAIを使用する2つの状況、すなわち(i)データ集約型保険と(ii)行動ベース保険を区別する。
この2つの傾向は多くの利点をもたらすが、差別効果もあるかもしれない。
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
- 参考スコア(独自算出の注目度): 0.951828574518325
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Insurers increasingly use AI. We distinguish two situations in which insurers
use AI: (i) data-intensive underwriting, and (ii) behaviour-based insurance.
(i) First, insurers can use AI for data analysis to assess risks:
data-intensive underwriting. Underwriting is, in short, calculating risks and
amending the insurance premium accordingly. (ii) Second, insurers can use AI to
monitor the behaviour of consumers in real-time: behaviour-based insurance. For
example, some car insurers give a discount if a consumer agrees to being
tracked by the insurer and drives safely. While the two trends bring many
advantages, they may also have discriminatory effects. This paper focuses on
the following question. Which discrimination-related effects may occur if
insurers use data-intensive underwriting and behaviour-based insurance? We
focus on two types of discrimination-related effects: discrimination and other
unfair differentiation. (i) Discrimination harms certain groups who are
protected by non-discrimination law, for instance people with certain
ethnicities. (ii) Unfair differentiation does not harm groups that are
protected by non-discrimination law, but it does seem unfair. We introduce four
factors to consider when assessing the fairness of insurance practices. The
paper builds on literature from various disciplines including law, philosophy,
and computer science.
- Abstract(参考訳): 保険会社はますますAIを使う。
保険会社がaiを使う2つの状況を区別します
(i)データ集約的な引受、及び
(ii)行動に基づく保険。
(i)まず、保険会社はデータ分析にaiを使用してリスクを評価することができる。
引受は、要するにリスクを計算し、それに応じて保険料を補正する。
第二に、保険業者はAIを使ってリアルタイムで消費者の行動を監視することができる。
例えば、一部の自動車保険会社は、消費者が保険会社が追跡して安全に運転することに同意した場合に割引を行う。
この2つの傾向は多くの利点をもたらすが、差別効果もある。
本稿では,以下の問題に焦点をあてる。
保険会社がデータ集約型保険や行動ベース保険を使用する場合、どのような差別関連効果が生じるか?
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
(i)差別は、非差別法で保護されている特定のグループ、例えば特定の民族を持つ人々に害を与える。
(二)非差別法で保護されている集団に不公平な差別は及ばないが、不公平に思われる。
保険制度の公正性を評価する際に考慮すべき4つの要因を紹介する。
この論文は、法、哲学、計算機科学を含む様々な分野の文学に基づいている。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Discrimination and AI in insurance: what do people find fair? Results from a survey [0.0]
現代の保険の2つのトレンドは、データ集約的な引受と行動に基づく保険である。
調査の回答者は、私たちが不公平だと説明した近代的な保険の実践のほとんどを見つけました。
我々はその発見の政策的含意を反映する。
論文 参考訳(メタデータ) (2025-01-22T14:18:47Z) - Quantifying detection rates for dangerous capabilities: a theoretical model of dangerous capability evaluations [47.698233647783965]
危険なAI能力を時間とともに追跡する定量的モデルを提案する。
私たちのゴールは、ポリシーと研究コミュニティが、いかに危険な能力テストがAIのリスクに近づくかを早期に警告できるかを可視化するのを支援することです。
論文 参考訳(メタデータ) (2024-12-19T22:31:34Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Harnessing GPT-4V(ision) for Insurance: A Preliminary Exploration [51.36387171207314]
保険には、テキスト、画像、ビデオなど、その運用プロセスにおけるさまざまなデータフォームが含まれる。
GPT-4Vは、保険関連のタスクにおいて顕著な能力を示し、マルチモーダルコンテンツの堅牢な理解を示す。
しかし、GPT-4Vは、詳細なリスク評価と損失評価に苦慮し、画像理解における幻覚に悩まされ、異なる言語に対する可変サポートを示す。
論文 参考訳(メタデータ) (2024-04-15T11:45:30Z) - Evaluating if trust and personal information privacy concerns are
barriers to using health insurance that explicitly utilizes AI [0.6138671548064355]
本研究は、信頼とプライバシに関する懸念が、医療保険におけるAI導入の障壁であるかどうかを考察する。
調査の結果、AIが見える第2のシナリオでは、信頼が著しく低いことが判明した。
プライバシに関する懸念はAIでは高いが、モデル内では統計的に重要な違いはない。
論文 参考訳(メタデータ) (2024-01-20T15:02:56Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling [0.0]
保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
論文 参考訳(メタデータ) (2023-07-25T16:20:56Z) - A Data Science Approach to Risk Assessment for Automobile Insurance
Policies [1.0660480034605242]
データサイエンスアプローチによるリスクアセスメントに重点を置いている。
当社は、現在および過去のポリシーの履歴データを用いて、新規顧客によってなされる総請求額を予測する。
論文 参考訳(メタデータ) (2022-09-06T18:32:27Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Who Make Drivers Stop? Towards Driver-centric Risk Assessment: Risk
Object Identification via Causal Inference [19.71459945458985]
運転者中心のリスク定義,すなわち運転者の行動に影響を与えるオブジェクトは危険である。
提案するオブジェクトレベルの操作可能な駆動モデルを用いた因果推論に基づく新しい2段階リスクオブジェクト識別フレームワークを提案する。
当社のフレームワークは,強力なベースラインに対するパフォーマンスを7.5%向上させています。
論文 参考訳(メタデータ) (2020-03-05T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。