論文の概要: Most General Explanations of Tree Ensembles (Extended Version)
- arxiv url: http://arxiv.org/abs/2505.10991v3
- Date: Tue, 20 May 2025 02:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 12:33:37.390381
- Title: Most General Explanations of Tree Ensembles (Extended Version)
- Title(参考訳): 木組の一般的な解説(拡張版)
- Authors: Yacine Izza, Alexey Ignatiev, Sasha Rubin, Joao Marques-Silva, Peter J. Stuckey,
- Abstract要約: 「AIシステムの主な疑問は、なぜこの決定がこのようにされたのかである。」
私たちは、AI決定に対して最も一般的な帰納的説明を見つける方法を示します。
- 参考スコア(独自算出の注目度): 39.367378161774596
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is critical for attaining trust in the operation of AI systems. A key question of an AI system is ``why was this decision made this way''. Formal approaches to XAI use a formal model of the AI system to identify abductive explanations. While abductive explanations may be applicable to a large number of inputs sharing the same concrete values, more general explanations may be preferred for numeric inputs. So-called inflated abductive explanations give intervals for each feature ensuring that any input whose values fall withing these intervals is still guaranteed to make the same prediction. Inflated explanations cover a larger portion of the input space, and hence are deemed more general explanations. But there can be many (inflated) abductive explanations for an instance. Which is the best? In this paper, we show how to find a most general abductive explanation for an AI decision. This explanation covers as much of the input space as possible, while still being a correct formal explanation of the model's behaviour. Given that we only want to give a human one explanation for a decision, the most general explanation gives us the explanation with the broadest applicability, and hence the one most likely to seem sensible. (The paper has been accepted at IJCAI2025 conference.)
- Abstract(参考訳): 説明可能な人工知能(XAI)は、AIシステムの運用に対する信頼を得るために重要である。
AIシステムの重要な疑問は、‘なぜこの決定を下したのか’だ。
XAIの形式的なアプローチでは、AIシステムの形式モデルを使用して、誘惑的な説明を識別する。
帰納的説明は、同じ具体的な値を共有する多数の入力に適用できるが、より一般的な説明は数値入力に好まれる。
いわゆる膨らませた誘引的説明は、それぞれの特徴に対して、これらの間隔で値が落ちる任意の入力が、同じ予測をすることを保証します。
膨らんだ説明は入力空間の大部分をカバーするため、より一般的な説明とみなされる。
しかし、インスタンスに対して多くの(膨らませた)帰納的説明がある。
どれが一番良いですか。
本稿では,AI決定に対する最も一般的な帰納的説明を見つける方法について述べる。
この説明はできるだけ多くの入力空間をカバーしているが、モデルの振る舞いの正しい公式な説明である。
人間が決定を下すための説明だけをしたいとすれば、最も一般的な説明は、最も広い適用性を持つ説明を与えてくれる。
(IJCAI2025で受理)
関連論文リスト
- Axe the X in XAI: A Plea for Understandable AI [0.0]
私は、XAI文献で現在使われている説明可能性の概念は、従来の科学的説明の概念とほとんど類似していないと論じる。
XAIの目標と目的を取り巻く混乱を避けるために、"理解可能なAI"というラベルを使用することは、より実りあることでしょう。
論文 参考訳(メタデータ) (2024-03-01T06:28:53Z) - Delivering Inflated Explanations [17.646704122091087]
説明可能性に関する正式なアプローチは、AIシステムの正式なモデルを構築します。
正式な帰納的説明は、与えられた値を取ると、常に同じ決定を下すような一連の特徴である。
本稿では,特徴の集合である膨らんだ説明と値の集合の各特徴について,その決定が変わらないように定義する。
論文 参考訳(メタデータ) (2023-06-27T07:54:18Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - A psychological theory of explainability [5.715103211247915]
本稿では,XAI の説明の最も一般的な形式である,サリエンシマップから人間がどのように結論を導き出すかの理論を提案する。
私たちの理論は、人間の説明が欠如していることは、AIが自分自身に同様の決定をすることを期待していること、そして彼らが与える説明と比較して説明を解釈していることを示唆している。
論文 参考訳(メタデータ) (2022-05-17T15:52:24Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Explainable AI without Interpretable Model [0.0]
AIシステムが、結果の背後にある理由をエンドユーザに説明できることは、これまで以上に重要になっています。
ほとんどの説明可能なAI(XAI)メソッドは、説明を作成するのに使用できる解釈可能なモデルを抽出することに基づいている。
本論文では,文脈的重要性と実用性(CIU)の概念により,ブラックボックスの結果の人間的な説明を直接生成することが可能となる。
論文 参考訳(メタデータ) (2020-09-29T13:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。