論文の概要: Model Transparency and Interpretability : Survey and Application to the
Insurance Industry
- arxiv url: http://arxiv.org/abs/2209.00562v1
- Date: Thu, 1 Sep 2022 16:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:45:22.855213
- Title: Model Transparency and Interpretability : Survey and Application to the
Insurance Industry
- Title(参考訳): モデル透明性と解釈可能性 : 保険業界への調査と応用
- Authors: Dimitri Delcaillau, Antoine Ly, Alize Papp and Franck Vermet
- Abstract要約: 本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 1.6058099298620423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of models, even if efficient, must be accompanied by an understanding
at all levels of the process that transforms data (upstream and downstream).
Thus, needs increase to define the relationships between individual data and
the choice that an algorithm could make based on its analysis (e.g. the
recommendation of one product or one promotional offer, or an insurance rate
representative of the risk). Model users must ensure that models do not
discriminate and that it is also possible to explain their results. This paper
introduces the importance of model interpretation and tackles the notion of
model transparency. Within an insurance context, it specifically illustrates
how some tools can be used to enforce the control of actuarial models that can
nowadays leverage on machine learning. On a simple example of loss frequency
estimation in car insurance, we show the interest of some interpretability
methods to adapt explanation to the target audience.
- Abstract(参考訳): モデルの使用は、たとえ効率的であっても、データ(上流と下流)を変換するプロセスのあらゆるレベルでの理解を伴う必要がある。
したがって、個々のデータとアルゴリズムが分析に基づいて行うことができる選択(例えば、1つの製品または1つのプロモーションオファーの推薦、またはリスクを表す保険率)との関係を定義する必要がある。
モデルユーザは、モデルが差別されないようにし、結果を説明することも可能であることを保証する必要がある。
本稿では,モデル解釈の重要性を紹介し,モデル透過性の概念に取り組む。
保険のコンテキスト内では、現在機械学習に活用できるアクチュアリモデルのコントロールを強制するために、いくつかのツールをどのように使用できるかを具体的に説明している。
自動車保険における損失頻度推定の簡単な例において,対象者への説明に適応するための解釈可能性手法の興味を示す。
関連論文リスト
- Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Information Laundering for Model Privacy [34.66708766179596]
本稿では,モデルプライバシ向上のための新しいフレームワークであるインフォメーション・ロンダリングを提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
論文 参考訳(メタデータ) (2020-09-13T23:24:08Z) - Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance [1.6058099298620423]
データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
論文 参考訳(メタデータ) (2020-07-25T12:18:07Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Towards Explainability of Machine Learning Models in Insurance Pricing [0.0]
本論では, 不動産におけるモデル解釈可能性の必要性について論じる。
モデルを説明するためのフレームワークを提案し,そのフレームワークを説明するケーススタディを提案する。
論文 参考訳(メタデータ) (2020-03-24T05:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。