論文の概要: Calibrated Explanations: with Uncertainty Information and
Counterfactuals
- arxiv url: http://arxiv.org/abs/2305.02305v1
- Date: Wed, 3 May 2023 17:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 13:50:11.889555
- Title: Calibrated Explanations: with Uncertainty Information and
Counterfactuals
- Title(参考訳): 校正説明:不確実性情報と対策
- Authors: Helena Lofstrom, Tuwe Lofstrom, Ulf Johansson, Cecilia Sonstrod
- Abstract要約: Calibrated Explanations (CE) は Venn-Abers をベースとして,その基盤となるモデルを校正し,特徴的重要性の説明を生成する。
CEは、確率推定と特徴重要性重みの不確実性の定量化とともに、高速で信頼性があり、安定で、堅牢な説明を提供する。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) has become an integral part of decision support
systems (DSSs) in various domains, but the lack of transparency in the
predictive models used in AI-based DSSs can lead to misuse or disuse.
Explainable Artificial Intelligence (XAI) aims to create AI systems that can
explain their rationale to human users. Local explanations in XAI can provide
information about the causes of individual predictions in terms of feature
importance, but they suffer from drawbacks such as instability. To address
these issues, we propose a new feature importance explanation method,
Calibrated Explanations (CE), which is based on Venn-Abers and calibrates the
underlying model while generating feature importance explanations. CE provides
fast, reliable, stable, and robust explanations, along with uncertainty
quantification of the probability estimates and feature importance weights.
Furthermore, the method is model agnostic with easily understood conditional
rules and can also generate counterfactual explanations with uncertainty
quantification.
- Abstract(参考訳): 人工知能(AI)は、さまざまな領域における意思決定支援システム(DSS)の不可欠な部分となっているが、AIベースのDSSで使用される予測モデルにおける透明性の欠如は、誤用や誤用につながる可能性がある。
説明可能な人工知能(XAI)は、人間のユーザーにその根拠を説明するAIシステムを構築することを目的としている。
XAIにおける局所的な説明は、特徴的重要性の観点から個々の予測の原因に関する情報を提供するが、不安定のような欠点に悩まされる。
そこで本研究では, venn-abers に基づいた特徴重要説明法(キャリブレーション説明法, calibrated explanations, ce)を提案する。
ceは、確率推定と特徴重要度に関する不確かさの定量化とともに、高速、信頼性、安定、堅牢な説明を提供する。
さらに、この方法は、容易に理解可能な条件規則と非依存なモデルであり、不確実性定量化を伴う反事実的説明も生成することができる。
関連論文リスト
- Fast Calibrated Explanations: Efficient and Uncertainty-Aware Explanations for Machine Learning Models [41.82622187379551]
本稿では,機械学習モデルに対する高速かつ不確実な説明を生成する手法であるFast Calibrated Explanationsを紹介する。
ConformaSightの摂動手法をCalibrated Explanationsのコア要素に組み込むことで,大幅な高速化を実現する。
この新しい手法は細部を犠牲にするが、計算効率は優れており、高速でリアルタイムなアプリケーションに最適である。
論文 参考訳(メタデータ) (2024-10-28T15:29:35Z) - Ensured: Explanations for Decreasing the Epistemic Uncertainty in Predictions [1.2289361708127877]
認識の不確実性は、品質を説明するために重要な次元を付け加える。
我々は、この不確実性を特に狙う新しいタイプの説明を紹介します。
我々は、ユーザが最も信頼できる説明を識別できるように設計された新しい指標、保証されたランキングを導入する。
論文 参考訳(メタデータ) (2024-10-07T20:21:51Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Evaluating AI systems under uncertain ground truth: a case study in
dermatology [44.80772162289557]
本稿では,アノテーションの不確実性を測定するための指標を提案し,評価のための不確実性調整指標を提案する。
本稿では,本フレームワークを皮膚条件分類に応用した症例スタディとして,アノテーションを診断の形で提供した画像について述べる。
論文 参考訳(メタデータ) (2023-07-05T10:33:45Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。