論文の概要: Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance
- arxiv url: http://arxiv.org/abs/2007.12919v1
- Date: Sat, 25 Jul 2020 12:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 00:51:32.258574
- Title: Interpretabilit\'e des mod\`eles : \'etat des lieux des m\'ethodes et
application \`a l'assurance
- Title(参考訳): モド・デ・モド・エレスの解釈論 : m'ethodes et application \`a l'assurance
- Authors: Dimitri Delcaillau, Antoine Ly, Franck Vermet, Aliz\'e Papp
- Abstract要約: データは、今日の多くのモデルの原材料であり、デジタルサービスの品質とパフォーマンスを向上させることができる。
モデル利用者は、モデルが差別されないようにし、その結果を説明することも可能であることを保証する必要がある。
予測アルゴリズムのパネルを広げると、科学者はモデルの使用について警戒するようになる。
- 参考スコア(独自算出の注目度): 1.6058099298620423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since May 2018, the General Data Protection Regulation (GDPR) has introduced
new obligations to industries. By setting a legal framework, it notably imposes
strong transparency on the use of personal data. Thus, people must be informed
of the use of their data and must consent the usage of it. Data is the raw
material of many models which today make it possible to increase the quality
and performance of digital services. Transparency on the use of data also
requires a good understanding of its use through different models. The use of
models, even if efficient, must be accompanied by an understanding at all
levels of the process that transform data (upstream and downstream of a model),
thus making it possible to define the relationships between the individual's
data and the choice that an algorithm could make based on the analysis of the
latter. (For example, the recommendation of one product or one promotional
offer or an insurance rate representative of the risk.) Models users must
ensure that models do not discriminate against and that it is also possible to
explain its result. The widening of the panel of predictive algorithms - made
possible by the evolution of computing capacities -- leads scientists to be
vigilant about the use of models and to consider new tools to better understand
the decisions deduced from them . Recently, the community has been particularly
active on model transparency with a marked intensification of publications over
the past three years. The increasingly frequent use of more complex algorithms
(\textit{deep learning}, Xgboost, etc.) presenting attractive performances is
undoubtedly one of the causes of this interest. This article thus presents an
inventory of methods of interpreting models and their uses in an insurance
context.
- Abstract(参考訳): 2018年5月以降、GDPR(General Data Protection Regulation)は産業に対する新たな義務を導入している。
法的枠組みを設定することで、特に個人データの使用に強い透明性を課す。
したがって、人々は自分のデータの使用について知らされ、それの使用に同意しなければならない。
データは多くのモデルの原材料であり、今日ではデジタルサービスの品質と性能を向上させることができる。
データの使用に関する透明性は、異なるモデルを通じてその使用を十分に理解する必要がある。
たとえ効率的であっても、モデルの使用には、データの変換(モデルの上流と下流)のプロセスのあらゆるレベルでの理解が伴わなければならないため、個々のデータとアルゴリズムが後者の分析に基づいて行うことができる選択との関係を定義することができる。
(例えば、1つの商品又は1つのプロモーションオファーの推薦、又はそのリスクを代表する保険率)
モデル利用者は、モデルが差別されないようにし、その結果を説明することもできなければならない。
予測アルゴリズムのパネルの拡大 — 計算能力の進化によって可能になった — によって、科学者はモデルの使用に警戒し、そこから引き出された決定をよりよく理解するための新しいツールを検討することになる。
最近、コミュニティは特に、過去3年間、出版物の顕著な強化により、モデルの透明性に活発に取り組んできた。
より複雑なアルゴリズム(\textit{deep learning}、Xgboostなど)が頻繁に使われるようになる。
) 魅力的なパフォーマンスを示すことは、間違いなくこの関心の原因の1つです。
本稿では,保険状況においてモデルとその利用を解釈する方法のインベントリを紹介する。
関連論文リスト
- Optimal Classification under Performative Distribution Shift [13.508249764979075]
本稿では,動作効果をプッシュフォワード尺度としてモデル化した新しい視点を提案する。
我々は、新しい仮定のセットの下で、パフォーマンスリスクの凸性を証明する。
また, 性能リスクの最小化を min-max 変動問題として再定義することにより, 逆向きの頑健な分類との関係を確立する。
論文 参考訳(メタデータ) (2024-11-04T12:20:13Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Model Transparency and Interpretability : Survey and Application to the
Insurance Industry [1.6058099298620423]
本稿では、モデルタックルの解釈の重要性とモデルの透明性の概念を紹介する。
保険のコンテキスト内では、アクチュアリアルモデルの制御を強制するために、いくつかのツールがどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-09-01T16:12:54Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - You Are What You Write: Preserving Privacy in the Era of Large Language
Models [2.3431670397288005]
本稿では,様々な人気モデルを用いて,事前学習された表現に符号化された個人情報の範囲について,実証的研究を行う。
モデルの複雑さ,事前学習に使用するデータ量,およびデータ漏洩との間には,正の相関関係を示す。
論文 参考訳(メタデータ) (2022-04-20T11:12:53Z) - Information Laundering for Model Privacy [34.66708766179596]
本稿では,モデルプライバシ向上のための新しいフレームワークであるインフォメーション・ロンダリングを提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
論文 参考訳(メタデータ) (2020-09-13T23:24:08Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。