論文の概要: Calibrated Explanations: with Uncertainty Information and
Counterfactuals
- arxiv url: http://arxiv.org/abs/2305.02305v1
- Date: Wed, 3 May 2023 17:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 13:50:11.889555
- Title: Calibrated Explanations: with Uncertainty Information and
Counterfactuals
- Title(参考訳): 校正説明:不確実性情報と対策
- Authors: Helena Lofstrom, Tuwe Lofstrom, Ulf Johansson, Cecilia Sonstrod
- Abstract要約: Calibrated Explanations (CE) は Venn-Abers をベースとして,その基盤となるモデルを校正し,特徴的重要性の説明を生成する。
CEは、確率推定と特徴重要性重みの不確実性の定量化とともに、高速で信頼性があり、安定で、堅牢な説明を提供する。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) has become an integral part of decision support
systems (DSSs) in various domains, but the lack of transparency in the
predictive models used in AI-based DSSs can lead to misuse or disuse.
Explainable Artificial Intelligence (XAI) aims to create AI systems that can
explain their rationale to human users. Local explanations in XAI can provide
information about the causes of individual predictions in terms of feature
importance, but they suffer from drawbacks such as instability. To address
these issues, we propose a new feature importance explanation method,
Calibrated Explanations (CE), which is based on Venn-Abers and calibrates the
underlying model while generating feature importance explanations. CE provides
fast, reliable, stable, and robust explanations, along with uncertainty
quantification of the probability estimates and feature importance weights.
Furthermore, the method is model agnostic with easily understood conditional
rules and can also generate counterfactual explanations with uncertainty
quantification.
- Abstract(参考訳): 人工知能(AI)は、さまざまな領域における意思決定支援システム(DSS)の不可欠な部分となっているが、AIベースのDSSで使用される予測モデルにおける透明性の欠如は、誤用や誤用につながる可能性がある。
説明可能な人工知能(XAI)は、人間のユーザーにその根拠を説明するAIシステムを構築することを目的としている。
XAIにおける局所的な説明は、特徴的重要性の観点から個々の予測の原因に関する情報を提供するが、不安定のような欠点に悩まされる。
そこで本研究では, venn-abers に基づいた特徴重要説明法(キャリブレーション説明法, calibrated explanations, ce)を提案する。
ceは、確率推定と特徴重要度に関する不確かさの定量化とともに、高速、信頼性、安定、堅牢な説明を提供する。
さらに、この方法は、容易に理解可能な条件規則と非依存なモデルであり、不確実性定量化を伴う反事実的説明も生成することができる。
関連論文リスト
- Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Calibrated Explanations for Regression [0.16874375111244325]
Calibrated Explanations (CE)は、高速で信頼性があり、安定し、堅牢な説明を提供する。
標準回帰のためのCEは、高速で信頼性があり、安定し、堅牢な説明を提供する。
安定性と速度に関する確率的回帰に対するCEの性能はLIMEに匹敵する。
論文 参考訳(メタデータ) (2023-08-30T18:06:57Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Evaluating AI systems under uncertain ground truth: a case study in
dermatology [44.80772162289557]
本稿では,アノテーションの不確実性を測定するための指標を提案し,評価のための不確実性調整指標を提案する。
本稿では,本フレームワークを皮膚条件分類に応用した症例スタディとして,アノテーションを診断の形で提供した画像について述べる。
論文 参考訳(メタデータ) (2023-07-05T10:33:45Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。