論文の概要: Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation
- arxiv url: http://arxiv.org/abs/2405.08297v1
- Date: Tue, 14 May 2024 03:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 15:08:02.506961
- Title: Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation
- Title(参考訳): 距離制限された説明:理論的アンダーピンニングと効率的な実装
- Authors: Yacine Izza, Xuanxiang Huang, Antonio Morgado, Jordi Planes, Alexey Ignatiev, Joao Marques-Silva,
- Abstract要約: 機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
- 参考スコア(独自算出の注目度): 19.22391463965126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The uses of machine learning (ML) have snowballed in recent years. In many cases, ML models are highly complex, and their operation is beyond the understanding of human decision-makers. Nevertheless, some uses of ML models involve high-stakes and safety-critical applications. Explainable artificial intelligence (XAI) aims to help human decision-makers in understanding the operation of such complex ML models, thus eliciting trust in their operation. Unfortunately, the majority of past XAI work is based on informal approaches, that offer no guarantees of rigor. Unsurprisingly, there exists comprehensive experimental and theoretical evidence confirming that informal methods of XAI can provide human-decision makers with erroneous information. Logic-based XAI represents a rigorous approach to explainability; it is model-based and offers the strongest guarantees of rigor of computed explanations. However, a well-known drawback of logic-based XAI is the complexity of logic reasoning, especially for highly complex ML models. Recent work proposed distance-restricted explanations, i.e. explanations that are rigorous provided the distance to a given input is small enough. Distance-restricted explainability is tightly related with adversarial robustness, and it has been shown to scale for moderately complex ML models, but the number of inputs still represents a key limiting factor. This paper investigates novel algorithms for scaling up the performance of logic-based explainers when computing and enumerating ML model explanations with a large number of inputs.
- Abstract(参考訳): 近年,機械学習(ML)の利用が雪だるまになってきた。
多くの場合、MLモデルは極めて複雑であり、その操作は人間の意思決定者に対する理解を超えたものである。
それでも、いくつかのMLモデルの使用には、高い評価と安全性クリティカルなアプリケーションが含まれる。
説明可能な人工知能(XAI)は、人間の意思決定者がこのような複雑なMLモデルの操作を理解するのを助けることを目的としている。
残念ながら、過去のXAIの作業の大部分は非公式なアプローチに基づいており、厳格な保証は提供されていない。
当然のことながら、XAIの非公式な手法が誤った情報を提供することができることを示す包括的な実験的・理論的証拠が存在する。
論理ベースのXAIは、説明可能性に対する厳密なアプローチであり、モデルベースであり、計算された説明の厳密な保証を提供する。
しかしながら、ロジックベースのXAIのよく知られた欠点は、特に高度に複雑なMLモデルにおいて、論理推論の複雑さである。
最近の研究は、与えられた入力までの距離が十分小さいという厳密な説明として、距離制限された説明を提案している。
距離制限された説明性は敵の強靭性と密接な関係があり、中程度に複雑なMLモデルに対してスケールすることが示されているが、入力の数は依然として重要な制限因子である。
本稿では,MLモデル記述を計算・列挙する際の論理モデル記述器の性能向上のための新しいアルゴリズムについて検討する。
関連論文リスト
- Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - Locally-Minimal Probabilistic Explanations [33.95940778422656]
説明可能な人工知能(XAI)に関するほとんどの研究は厳密な保証を提供していない。
高度な領域、例えば人間に影響を与えるAIの使用では、説明の厳密さの欠如は悲惨な結果をもたらす可能性がある。
本稿では,局所最小PXApsの計算アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-19T03:45:27Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - Explaining Any ML Model? -- On Goals and Capabilities of XAI [2.236663830879273]
我々は、XAIアルゴリズムの目標と能力はよく理解されていないと論じる。
ユーザは多様な質問をすることができるが、その中の1つだけが現在のXAIアルゴリズムで答えられる。
論文 参考訳(メタデータ) (2022-06-28T11:09:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。