論文の概要: Disproving XAI Myths with Formal Methods -- Initial Results
- arxiv url: http://arxiv.org/abs/2306.01744v1
- Date: Sat, 13 May 2023 11:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 14:04:56.428666
- Title: Disproving XAI Myths with Formal Methods -- Initial Results
- Title(参考訳): 形式的手法によるXAI神話の否定 -初期結果-
- Authors: Joao Marques-Silva
- Abstract要約: 本稿は、XAIにおける最も目に見える誤解について詳述する。
これは、これらの誤解を否定し、実用的な代替手段を考案するために、形式的な方法がどのように使われたかを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advances in Machine Learning (ML) in recent years have been both
impressive and far-reaching. However, the deployment of ML models is still
impaired by a lack of trust in how the best-performing ML models make
predictions. The issue of lack of trust is even more acute in the uses of ML
models in high-risk or safety-critical domains. eXplainable artificial
intelligence (XAI) is at the core of ongoing efforts for delivering trustworthy
AI. Unfortunately, XAI is riddled with critical misconceptions, that foster
distrust instead of building trust. This paper details some of the most visible
misconceptions in XAI, and shows how formal methods have been used, both to
disprove those misconceptions, but also to devise practically effective
alternatives.
- Abstract(参考訳): 近年の機械学習(ML)の進歩は印象的かつ広範囲に及んでいる。
しかしながら、MLモデルのデプロイは、最高のパフォーマンスを持つMLモデルの予測方法に対する信頼の欠如によって、依然として損なわれている。
信頼の欠如の問題は、高リスクまたは安全クリティカルな領域におけるmlモデルの使用においてさらに深刻である。
eXplainable AI(XAI)は、信頼できるAIを提供するための継続的な取り組みの中核にある。
残念ながら、XAIは信頼を構築する代わりに不信を育むという批判的な誤解に打ち消されている。
本稿は、XAIにおける最も目に見える誤解のいくつかを詳述し、これらの誤解を否定するためにも、実用的な代替案を考案するためにも、形式的手法がどのように使われたかを示す。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Logic-Based Explainability: Past, Present & Future [0.8547032097715571]
機械学習(ML)と人工知能(AI)の採用も重大な懸念点である。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
論文 参考訳(メタデータ) (2024-06-04T10:41:55Z) - Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation [19.22391463965126]
機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-05-14T03:42:33Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - TRUST XAI: Model-Agnostic Explanations for AI With a Case Study on IIoT
Security [0.0]
我々は,トランスパラシー・アポン・統計理論(XAI)という普遍的XAIモデルを提案する。
TRUST XAIが, 平均成功率98%の新しいランダムサンプルについて, どのように説明するかを示す。
最後に、TRUSTがユーザに対してどのように説明されるかを示す。
論文 参考訳(メタデータ) (2022-05-02T21:44:27Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。