論文の概要: Model Transparency and Interpretability : Survey and Application to the
Insurance Industry
- arxiv url: http://arxiv.org/abs/2209.00562v1
- Date: Thu, 1 Sep 2022 16:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:45:22.855213
- Title: Model Transparency and Interpretability : Survey and Application to the
Insurance Industry
- Title(参考訳): モデル透明性と解釈可能性 : 保険業界への調査と応用
- Authors: Dimitri Delcaillau, Antoine Ly, Alize Papp and Franck Vermet
- Abstract要約: 本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 1.6058099298620423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of models, even if efficient, must be accompanied by an understanding
at all levels of the process that transforms data (upstream and downstream).
Thus, needs increase to define the relationships between individual data and
the choice that an algorithm could make based on its analysis (e.g. the
recommendation of one product or one promotional offer, or an insurance rate
representative of the risk). Model users must ensure that models do not
discriminate and that it is also possible to explain their results. This paper
introduces the importance of model interpretation and tackles the notion of
model transparency. Within an insurance context, it specifically illustrates
how some tools can be used to enforce the control of actuarial models that can
nowadays leverage on machine learning. On a simple example of loss frequency
estimation in car insurance, we show the interest of some interpretability
methods to adapt explanation to the target audience.
- Abstract(参考訳): モデルの使用は、たとえ効率的であっても、データ(上流と下流)を変換するプロセスのあらゆるレベルでの理解を伴う必要がある。
したがって、個々のデータとアルゴリズムが分析に基づいて行うことができる選択(例えば、1つの製品または1つのプロモーションオファーの推薦、またはリスクを表す保険率)との関係を定義する必要がある。
モデルユーザは、モデルが差別されないようにし、結果を説明することも可能であることを保証する必要がある。
本稿では,モデル解釈の重要性を紹介し,モデル透過性の概念に取り組む。
保険のコンテキスト内では、現在機械学習に活用できるアクチュアリモデルのコントロールを強制するために、いくつかのツールをどのように使用できるかを具体的に説明している。
自動車保険における損失頻度推定の簡単な例において,対象者への説明に適応するための解釈可能性手法の興味を示す。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Information Laundering for Model Privacy [34.66708766179596]
本稿では,モデルプライバシ向上のための新しいフレームワークであるインフォメーション・ロンダリングを提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
論文 参考訳(メタデータ) (2020-09-13T23:24:08Z) - Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance [1.6058099298620423]
データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
論文 参考訳(メタデータ) (2020-07-25T12:18:07Z) - Towards Explainability of Machine Learning Models in Insurance Pricing [0.0]
本論では, 不動産におけるモデル解釈可能性の必要性について論じる。
モデルを説明するためのフレームワークを提案し,そのフレームワークを説明するケーススタディを提案する。
論文 参考訳(メタデータ) (2020-03-24T05:51:30Z) - Asking the Right Questions: Learning Interpretable Action Models Through
Query Answering [33.08099403894141]
本稿では,ブラックボックス型自律エージェントの解釈可能なリレーショナルモデルを設計・動作可能な新しいアプローチを開発する。
我々の主な貢献は、エージェントとの最小クエリインタフェースを用いてそのようなモデルを推定するための新しいパラダイムと、エージェントの内部モデルを推定するための尋問ポリシーを生成する階層的なクエリアルゴリズムである。
論文 参考訳(メタデータ) (2019-12-29T09:05:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。