論文の概要: Explaining Decisions in ML Models: a Parameterized Complexity Analysis (Part I)
- arxiv url: http://arxiv.org/abs/2511.03545v1
- Date: Wed, 05 Nov 2025 15:25:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.46084
- Title: Explaining Decisions in ML Models: a Parameterized Complexity Analysis (Part I)
- Title(参考訳): MLモデルにおける決定の説明:パラメータ化複雑度解析(その1)
- Authors: Sebastian Ordyniak, Giacomo Paesani, Mateusz Rychlicki, Stefan Szeider,
- Abstract要約: 本稿では,機械学習(ML)モデルにおける説明問題のパラメータ化複雑性に関する理論的検討を行う。
一般的なブラックボックスの知覚とは対照的に、我々は透明な内部機構を持つモデルに焦点を当てている。
- 参考スコア(独自算出の注目度): 31.014684803229756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive theoretical investigation into the parameterized complexity of explanation problems in various machine learning (ML) models. Contrary to the prevalent black-box perception, our study focuses on models with transparent internal mechanisms. We address two principal types of explanation problems: abductive and contrastive, both in their local and global variants. Our analysis encompasses diverse ML models, including Decision Trees, Decision Sets, Decision Lists, Boolean Circuits, and ensembles thereof, each offering unique explanatory challenges. This research fills a significant gap in explainable AI (XAI) by providing a foundational understanding of the complexities of generating explanations for these models. This work provides insights vital for further research in the domain of XAI, contributing to the broader discourse on the necessity of transparency and accountability in AI systems.
- Abstract(参考訳): 本稿では,機械学習(ML)モデルにおける説明問題のパラメータ化複雑性に関する包括的理論的考察を行う。
一般的なブラックボックスの知覚とは対照的に、我々は透明な内部機構を持つモデルに焦点を当てている。
本稿では, 帰納的かつ対照的な2種類の説明問題を, 局所的および大域的両変種において解決する。
我々の分析は、決定木、決定セット、決定リスト、ブール回路、それらのアンサンブルなど、さまざまなMLモデルを含む。
この研究は、これらのモデルのための説明を生成する複雑さに関する基礎的な理解を提供することによって、説明可能なAI(XAI)における大きなギャップを埋める。
この研究は、XAIの領域におけるさらなる研究に不可欠な洞察を与え、AIシステムにおける透明性と説明責任の必要性に関する幅広い議論に寄与する。
関連論文リスト
- LLMs for Explainable AI: A Comprehensive Survey [0.7373617024876725]
大規模言語モデル(LLM)は、説明可能なAI(XAI)を強化するための有望なアプローチを提供する
LLMは複雑な機械学習出力を理解しやすい物語に変換する。
LLMは洗練されたモデル行動と人間の解釈可能性のギャップを埋めることができる。
論文 参考訳(メタデータ) (2025-03-31T18:19:41Z) - Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - Large Multi-modal Models Can Interpret Features in Large Multi-modal Models [51.485491249693155]
まず、スパースオートエンコーダを用いて表現を人間の理解可能な特徴に分解する。
LMM自体がSAEで学んだオープンセマンティックな特徴を解釈するための自動解釈フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-22T14:41:36Z) - Explaining Decisions in ML Models: a Parameterized Complexity Analysis [26.444020729887782]
本稿では,機械学習(ML)モデルにおける説明問題のパラメータ化複雑性に関する理論的検討を行う。
一般的なブラックボックスの知覚とは対照的に、我々は透明な内部機構を持つモデルに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-22T16:37:48Z) - A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Understanding the Language Model to Solve the Symbolic Multi-Step Reasoning Problem from the Perspective of Buffer Mechanism [68.05754701230039]
本研究では,トランスフォーマーモデルにおける情報伝達機構を解明するために,シンボル的多段階推論タスクを構築する。
モデルの推論能力を高めるために,ランダムな行列に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Multilingual Multi-Aspect Explainability Analyses on Machine Reading Comprehension Models [76.48370548802464]
本稿では,マルチヘッド自己注意と最終MRCシステム性能の関係を検討するために,一連の解析実験を実施することに焦点を当てる。
問合せ及び問合せ理解の注意が問合せプロセスにおいて最も重要なものであることが判明した。
包括的可視化とケーススタディを通じて、注意マップに関するいくつかの一般的な知見も観察し、これらのモデルがどのように問題を解くかを理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-08-26T04:23:57Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。