論文の概要: Enhancing XAI Narratives through Multi-Narrative Refinement and Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2510.03134v1
- Date: Fri, 03 Oct 2025 16:04:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.472927
- Title: Enhancing XAI Narratives through Multi-Narrative Refinement and Knowledge Distillation
- Title(参考訳): マルチナラティブ・リファインメントと知識蒸留によるXAIナラティブの強化
- Authors: Flavio Giorgi, Matteo Silvestri, Cesare Campagnano, Fabrizio Silvestri, Gabriele Tolomei,
- Abstract要約: カウンターファクトな説明は、予測を変える最小限の変更を強調することによって、モデル行動に関する洞察を提供する。
その可能性にもかかわらず、これらの説明はしばしば複雑で技術的であり、非専門家が解釈することを困難にしている。
本稿では,大規模・小規模の言語モデルを用いた新しいパイプラインを提案する。
- 参考スコア(独自算出の注目度): 13.523610021268363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence has become a crucial area of research, aiming to demystify the decision-making processes of deep learning models. Among various explainability techniques, counterfactual explanations have been proven particularly promising, as they offer insights into model behavior by highlighting minimal changes that would alter a prediction. Despite their potential, these explanations are often complex and technical, making them difficult for non-experts to interpret. To address this challenge, we propose a novel pipeline that leverages Language Models, large and small, to compose narratives for counterfactual explanations. We employ knowledge distillation techniques along with a refining mechanism to enable Small Language Models to perform comparably to their larger counterparts while maintaining robust reasoning abilities. In addition, we introduce a simple but effective evaluation method to assess natural language narratives, designed to verify whether the models' responses are in line with the factual, counterfactual ground truth. As a result, our proposed pipeline enhances both the reasoning capabilities and practical performance of student models, making them more suitable for real-world use cases.
- Abstract(参考訳): 説明可能な人工知能は、ディープラーニングモデルの意思決定プロセスの解明を目的として、重要な研究領域となっている。
様々な説明可能性のテクニックの中で、予測を変える最小限の変更を強調することによってモデル行動に関する洞察を提供するため、反実的説明は特に有望であることが証明されている。
その可能性にもかかわらず、これらの説明はしばしば複雑で技術的であり、非専門家が解釈することを困難にしている。
この課題に対処するため,我々は,大規模かつ小規模の言語モデルを利用して,対実的説明のための物語を構成する新しいパイプラインを提案する。
我々は, 知識蒸留技術と精錬機構を併用して, 小規模言語モデルにおいて, 頑健な推論能力を維持しつつ, より大きな言語モデルとの互換性を保たせるようにした。
さらに,本研究では,本モデルが現実的,事実的,事実的根拠的真理に合致しているかどうかを検証するための,自然言語の物語を評価するための簡易かつ効果的な評価手法を提案する。
その結果,提案したパイプラインは,学生モデルの推論能力と実用性能を両立させ,現実のユースケースに適合させることができた。
関連論文リスト
- Natural Language Counterfactual Explanations for Graphs Using Large Language Models [7.560731917128082]
我々は、オープンソースのLarge Language Modelsの力を利用して、自然言語の説明を生成する。
提案手法は, 対実例の正確な自然言語表現を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-10-11T23:06:07Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。