論文の概要: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- arxiv url: http://arxiv.org/abs/2401.11892v1
- Date: Mon, 22 Jan 2024 12:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:10:48.535460
- Title: AI, insurance, discrimination and unfair differentiation. An overview
and research agenda
- Title(参考訳): AI、保険、差別、不公平な差別。
概要と研究課題
- Authors: Marvin S. L. van Bekkum, Frederik J. Zuiderveen Borgesius
- Abstract要約: 我々は、保険業者がAIを使用する2つの状況、すなわち(i)データ集約型保険と(ii)行動ベース保険を区別する。
この2つの傾向は多くの利点をもたらすが、差別効果もあるかもしれない。
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
- 参考スコア(独自算出の注目度): 0.951828574518325
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Insurers increasingly use AI. We distinguish two situations in which insurers
use AI: (i) data-intensive underwriting, and (ii) behaviour-based insurance.
(i) First, insurers can use AI for data analysis to assess risks:
data-intensive underwriting. Underwriting is, in short, calculating risks and
amending the insurance premium accordingly. (ii) Second, insurers can use AI to
monitor the behaviour of consumers in real-time: behaviour-based insurance. For
example, some car insurers give a discount if a consumer agrees to being
tracked by the insurer and drives safely. While the two trends bring many
advantages, they may also have discriminatory effects. This paper focuses on
the following question. Which discrimination-related effects may occur if
insurers use data-intensive underwriting and behaviour-based insurance? We
focus on two types of discrimination-related effects: discrimination and other
unfair differentiation. (i) Discrimination harms certain groups who are
protected by non-discrimination law, for instance people with certain
ethnicities. (ii) Unfair differentiation does not harm groups that are
protected by non-discrimination law, but it does seem unfair. We introduce four
factors to consider when assessing the fairness of insurance practices. The
paper builds on literature from various disciplines including law, philosophy,
and computer science.
- Abstract(参考訳): 保険会社はますますAIを使う。
保険会社がaiを使う2つの状況を区別します
(i)データ集約的な引受、及び
(ii)行動に基づく保険。
(i)まず、保険会社はデータ分析にaiを使用してリスクを評価することができる。
引受は、要するにリスクを計算し、それに応じて保険料を補正する。
第二に、保険業者はAIを使ってリアルタイムで消費者の行動を監視することができる。
例えば、一部の自動車保険会社は、消費者が保険会社が追跡して安全に運転することに同意した場合に割引を行う。
この2つの傾向は多くの利点をもたらすが、差別効果もある。
本稿では,以下の問題に焦点をあてる。
保険会社がデータ集約型保険や行動ベース保険を使用する場合、どのような差別関連効果が生じるか?
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
(i)差別は、非差別法で保護されている特定のグループ、例えば特定の民族を持つ人々に害を与える。
(二)非差別法で保護されている集団に不公平な差別は及ばないが、不公平に思われる。
保険制度の公正性を評価する際に考慮すべき4つの要因を紹介する。
この論文は、法、哲学、計算機科学を含む様々な分野の文学に基づいている。
関連論文リスト
- Classification problem in liability insurance using machine learning models: a comparative study [0.0]
我々は、負債保険政策を2つのグループに分類するために、いくつかの機械学習モデルを適用している。
本研究では,クアズビニが使用したActuarial Challengeデータセットに対して,近接近傍やロジスティック回帰などの機械学習モデルを適用した。
論文 参考訳(メタデータ) (2024-11-01T04:35:39Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Harnessing GPT-4V(ision) for Insurance: A Preliminary Exploration [51.36387171207314]
保険には、テキスト、画像、ビデオなど、その運用プロセスにおけるさまざまなデータフォームが含まれる。
GPT-4Vは、保険関連のタスクにおいて顕著な能力を示し、マルチモーダルコンテンツの堅牢な理解を示す。
しかし、GPT-4Vは、詳細なリスク評価と損失評価に苦慮し、画像理解における幻覚に悩まされ、異なる言語に対する可変サポートを示す。
論文 参考訳(メタデータ) (2024-04-15T11:45:30Z) - Can Telematics Improve Driving Style? The Use of Behavioural Data in
Motor Insurance [0.1398098625978622]
本稿では,サードパーティの自動車保険におけるテレマティクスデータの利用事例と課題について考察する。
行動データは、政策ステークホルダーのリスクプロファイルを洗練させるだけでなく、革新的なコーチング戦略を実装するためにも使われる。
本研究は,テレマティクス自動車保険を販売している企業のデータセットの実証調査に基づいて,コーチングの有効性について検討する。
論文 参考訳(メタデータ) (2023-09-06T08:00:51Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - AI and ethics in insurance: a new solution to mitigate proxy
discrimination in risk modeling [0.0]
保険におけるデータの倫理的利用に関する規制当局の注目が高まる中で、アクチュアリアル・コミュニティは価格設定とリスク選択の実践を再考しなければならない。
エクイティ(Equity)は、現在合意に達することなく互いに影響を及ぼすあらゆる分野において、多くの異なる定義を持つ哲学概念である。
我々は、線形代数の数学的概念により間接的差別のリスクを低減するために、文献ではまだ満たされていない革新的な方法を提案する。
論文 参考訳(メタデータ) (2023-07-25T16:20:56Z) - AI Liability Insurance With an Example in AI-Powered E-diagnosis System [22.102728605081534]
我々はAIによるE-diagnosisシステムをAI責任保険の研究の例として用いている。
我々は、AI責任保険がコンプライアンス行動のインセンティブを与えるための規制機構として機能し、高品質なAIシステムの証明書として機能することを示した。
論文 参考訳(メタデータ) (2023-06-01T21:03:47Z) - Adversarial AI in Insurance: Pervasiveness and Resilience [0.0]
本稿では,AIシステムを騙し,誤った出力を生成するために,修正された入力データを作成することからなる敵攻撃について検討する。
防御法や予防システムについては,少数発・ゼロ発のマルチラベリングを考慮し論じる。
関心が高まりつつある関連するトピックは、AIとMLコンポーネントを組み込んだシステムの検証と検証である。
論文 参考訳(メタデータ) (2023-01-17T08:49:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。