論文の概要: Disproving XAI Myths with Formal Methods -- Initial Results
- arxiv url: http://arxiv.org/abs/2306.01744v1
- Date: Sat, 13 May 2023 11:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 14:04:56.428666
- Title: Disproving XAI Myths with Formal Methods -- Initial Results
- Title(参考訳): 形式的手法によるXAI神話の否定 -初期結果-
- Authors: Joao Marques-Silva
- Abstract要約: 本稿は、XAIにおける最も目に見える誤解について詳述する。
これは、これらの誤解を否定し、実用的な代替手段を考案するために、形式的な方法がどのように使われたかを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advances in Machine Learning (ML) in recent years have been both
impressive and far-reaching. However, the deployment of ML models is still
impaired by a lack of trust in how the best-performing ML models make
predictions. The issue of lack of trust is even more acute in the uses of ML
models in high-risk or safety-critical domains. eXplainable artificial
intelligence (XAI) is at the core of ongoing efforts for delivering trustworthy
AI. Unfortunately, XAI is riddled with critical misconceptions, that foster
distrust instead of building trust. This paper details some of the most visible
misconceptions in XAI, and shows how formal methods have been used, both to
disprove those misconceptions, but also to devise practically effective
alternatives.
- Abstract(参考訳): 近年の機械学習(ML)の進歩は印象的かつ広範囲に及んでいる。
しかしながら、MLモデルのデプロイは、最高のパフォーマンスを持つMLモデルの予測方法に対する信頼の欠如によって、依然として損なわれている。
信頼の欠如の問題は、高リスクまたは安全クリティカルな領域におけるmlモデルの使用においてさらに深刻である。
eXplainable AI(XAI)は、信頼できるAIを提供するための継続的な取り組みの中核にある。
残念ながら、XAIは信頼を構築する代わりに不信を育むという批判的な誤解に打ち消されている。
本稿は、XAIにおける最も目に見える誤解のいくつかを詳述し、これらの誤解を否定するためにも、実用的な代替案を考案するためにも、形式的手法がどのように使われたかを示す。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - Assessing Fidelity in XAI post-hoc techniques: A Comparative Study with
Ground Truth Explanations Datasets [0.0]
入力への出力情報のバックプロパゲーションに基づくXAI手法により精度と信頼性が向上する。
バックプロパゲーション法は、よりノイズの多いサリエンシマップを生成する傾向がある。
発見はXAI法の進歩に重要な意味を持つ。
論文 参考訳(メタデータ) (2023-11-03T14:57:24Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Gaining Wisdom from Setbacks: Aligning Large Language Models via Mistake
Analysis [127.85293480405082]
大規模言語モデル(LLM)の急速な開発は、多くの機会を提供するだけでなく、重要な課題も提示している。
既存のアライメント手法は、人間による注釈付き、欠陥のない命令応答ペアを利用することで、LLMを好ましい結果に導くのが一般的である。
本研究は誤り解析に基づく新しいアライメント手法を提案する。ミスの原因と回避方法を学習するために,LLMを誤った内容に故意に公開する手法である。
論文 参考訳(メタデータ) (2023-10-16T14:59:10Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - TRUST XAI: Model-Agnostic Explanations for AI With a Case Study on IIoT
Security [0.0]
我々は,トランスパラシー・アポン・統計理論(XAI)という普遍的XAIモデルを提案する。
TRUST XAIが, 平均成功率98%の新しいランダムサンプルについて, どのように説明するかを示す。
最後に、TRUSTがユーザに対してどのように説明されるかを示す。
論文 参考訳(メタデータ) (2022-05-02T21:44:27Z) - Explainable AI via Learning to Optimize [2.8010955192967852]
機械学習(ML)では非解読可能なブラックボックスが一般的だが、アプリケーションは説明可能な人工知能(XAI)を必要としている。
この作業は、事前の知識を符号化し、信頼できない推論をフラグ付けしなければならない状況において、XAIのための具体的なツールを提供する。
論文 参考訳(メタデータ) (2022-04-29T15:57:03Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - TrustyAI Explainability Toolkit [1.0499611180329804]
trustyaiが意思決定サービスと予測モデルに対する信頼をどのように支援できるか検討する。
我々は, LIME, SHAP, および対策技術について検討する。
また、評価対象の背景データ選択をサポートするSHAPの拡張バージョンについても検討します。
論文 参考訳(メタデータ) (2021-04-26T17:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。