論文の概要: A multi-task network approach for calculating discrimination-free
insurance prices
- arxiv url: http://arxiv.org/abs/2207.02799v1
- Date: Wed, 6 Jul 2022 16:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:45:02.040886
- Title: A multi-task network approach for calculating discrimination-free
insurance prices
- Title(参考訳): 差別フリー保険価格の算定のためのマルチタスクネットワークアプローチ
- Authors: Mathias Lindholm, Ronald Richman, Andreas Tsanakas, Mario V.
W\"uthrich
- Abstract要約: 保険価格では、間接的または代理的差別が大きな懸念事項である。
本稿では,保護特性の部分的情報のみを用いて学習可能な,クレーム予測のためのマルチタスクニューラルネットワークアーキテクチャを提案する。
予測精度は従来のフィードフォワードニューラルネットワーク(全情報)に匹敵することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In applications of predictive modeling, such as insurance pricing, indirect
or proxy discrimination is an issue of major concern. Namely, there exists the
possibility that protected policyholder characteristics are implicitly inferred
from non-protected ones by predictive models, and are thus having an
undesirable (or illegal) impact on prices. A technical solution to this problem
relies on building a best-estimate model using all policyholder characteristics
(including protected ones) and then averaging out the protected characteristics
for calculating individual prices. However, such approaches require full
knowledge of policyholders' protected characteristics, which may in itself be
problematic. Here, we address this issue by using a multi-task neural network
architecture for claim predictions, which can be trained using only partial
information on protected characteristics, and it produces prices that are free
from proxy discrimination. We demonstrate the use of the proposed model and we
find that its predictive accuracy is comparable to a conventional feedforward
neural network (on full information). However, this multi-task network has
clearly superior performance in the case of partially missing policyholder
information.
- Abstract(参考訳): 保険価格などの予測モデリングの応用においては、間接的あるいは代理的差別が大きな懸念事項である。
すなわち、保護政策所有者の特性が予測モデルによって非保護者から暗黙的に推測される可能性があり、したがって価格に望ましくない(または違法)影響を及ぼしている。
この問題に対する技術的な解決策は、すべての政策保持者特性(保護されたものを含む)を使用して最適見積モデルを構築し、個々の価格を計算するための保護された特性を平均化することである。
しかし、そのようなアプローチは、政策所有者の保護された特性について完全な知識を必要とする。
本稿では,クレーム予測のためのマルチタスクニューラルネットワークアーキテクチャを用いて,保護された特性に関する部分情報のみを使用してトレーニングし,プロキシ識別から解放された価格を生成する。
提案モデルを用いた場合,予測精度は従来のフィードフォワードニューラルネットワーク(全情報)に匹敵することがわかった。
しかしながら、このマルチタスクネットワークは、部分的にポリシーホルダ情報を欠く場合において、明らかに優れた性能を有する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - A Discussion of Discrimination and Fairness in Insurance Pricing [0.0]
グループフェアネスの概念は、保険価格の計算における保護特性の影響を和らげるために提案されている。
代行差別のない統計モデルを提案するので、保険価格の観点からは非プロブレマティックである。
この統計モデルの標準価格は、最も人気のある3つの群フェアネス公理のいずれかを満たすものではない。
論文 参考訳(メタデータ) (2022-09-02T07:31:37Z) - Model Transparency and Interpretability : Survey and Application to the
Insurance Industry [1.6058099298620423]
本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-01T16:12:54Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。