論文の概要: On the Hardness of Computing Counterfactual and Semifactual Explanations in XAI
- arxiv url: http://arxiv.org/abs/2601.09455v1
- Date: Wed, 14 Jan 2026 13:02:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.405249
- Title: On the Hardness of Computing Counterfactual and Semifactual Explanations in XAI
- Title(参考訳): XAIにおける計算の非現実的・半実的説明の難しさについて
- Authors: André Artelt, Martin Olsen, Kevin Tierney,
- Abstract要約: 多くの場合、説明の生成は計算的に困難であることが示される。
我々は、XAIコミュニティと、AIにおける説明の規制を求める政策立案者との関係について論じる。
- 参考スコア(独自算出の注目度): 5.172213041663734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing clear explanations to the choices of machine learning models is essential for these models to be deployed in crucial applications. Counterfactual and semi-factual explanations have emerged as two mechanisms for providing users with insights into the outputs of their models. We provide an overview of the computational complexity results in the literature for generating these explanations, finding that in many cases, generating explanations is computationally hard. We strengthen the argument for this considerably by further contributing our own inapproximability results showing that not only are explanations often hard to generate, but under certain assumptions, they are also hard to approximate. We discuss the implications of these complexity results for the XAI community and for policymakers seeking to regulate explanations in AI.
- Abstract(参考訳): 機械学習モデルの選択に関する明確な説明を提供することは、これらのモデルが重要なアプリケーションにデプロイされるために不可欠である。
対実的および半実的説明は、モデルのアウトプットに関する洞察をユーザに提供するための2つのメカニズムとして現れている。
本稿では、これらの説明を生成するための文献における計算複雑性の結果の概要を示し、多くの場合、説明の生成は計算的に困難であることを示す。
我々は、この議論を、しばしば生成し難い説明であるだけでなく、特定の仮定の下では、それらが近似し難いことを示す、我々の不適応性の結果にさらに貢献することによって、かなり強化する。
我々は、XAIコミュニティと、AIにおける説明の規制を求める政策立案者に対して、これらの複雑さの結果がもたらす意味について論じる。
関連論文リスト
- Explaining Decisions in ML Models: a Parameterized Complexity Analysis (Part I) [31.014684803229756]
本稿では,機械学習(ML)モデルにおける説明問題のパラメータ化複雑性に関する理論的検討を行う。
一般的なブラックボックスの知覚とは対照的に、我々は透明な内部機構を持つモデルに焦点を当てている。
論文 参考訳(メタデータ) (2025-11-05T15:25:07Z) - Natural Language Counterfactual Explanations for Graphs Using Large Language Models [7.560731917128082]
我々は、オープンソースのLarge Language Modelsの力を利用して、自然言語の説明を生成する。
提案手法は, 対実例の正確な自然言語表現を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-10-11T23:06:07Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。