論文の概要: ContextualSHAP : Enhancing SHAP Explanations Through Contextual Language Generation
- arxiv url: http://arxiv.org/abs/2512.07178v1
- Date: Mon, 08 Dec 2025 05:18:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.717881
- Title: ContextualSHAP : Enhancing SHAP Explanations Through Contextual Language Generation
- Title(参考訳): コンテキスト型SHAP : 文脈型言語生成によるSHAP説明の強化
- Authors: Latifa Dwiyanti, Sergio Ryan Wibisono, Hidetaka Nambo,
- Abstract要約: 大規模言語モデル(LLM)と統合してSHAPを拡張するPythonパッケージを提案する。
この統合は、モデルコンテキストとユーザ視点の両方を説明するために、ユーザ定義パラメータによって導かれる。
結果: 生成した説明は視覚のみの出力よりも理解しやすく, 文脈的に適切であると考えられた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) has become an increasingly important area of research, particularly as machine learning models are deployed in high-stakes domains. Among various XAI approaches, SHAP (SHapley Additive exPlanations) has gained prominence due to its ability to provide both global and local explanations across different machine learning models. While SHAP effectively visualizes feature importance, it often lacks contextual explanations that are meaningful for end-users, especially those without technical backgrounds. To address this gap, we propose a Python package that extends SHAP by integrating it with a large language model (LLM), specifically OpenAI's GPT, to generate contextualized textual explanations. This integration is guided by user-defined parameters (such as feature aliases, descriptions, and additional background) to tailor the explanation to both the model context and the user perspective. We hypothesize that this enhancement can improve the perceived understandability of SHAP explanations. To evaluate the effectiveness of the proposed package, we applied it in a healthcare-related case study and conducted user evaluations involving real end-users. The results, based on Likert-scale surveys and follow-up interviews, indicate that the generated explanations were perceived as more understandable and contextually appropriate compared to visual-only outputs. While the findings are preliminary, they suggest that combining visualization with contextualized text may support more user-friendly and trustworthy model explanations.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、特に機械学習モデルが高い領域に展開されるにつれて、研究の重要領域になりつつある。
さまざまなXAIアプローチの中で、SHAP(SHapley Additive exPlanations)は、さまざまな機械学習モデル間でグローバルとローカルの両方の説明を提供する能力によって、注目を集めている。
SHAPは機能の重要性を効果的に可視化するが、エンドユーザー、特に技術的な背景を持たないユーザーにとって意味のある文脈的な説明が欠けていることが多い。
このギャップに対処するために,大規模言語モデル(LLM),特にOpenAIのGPTと統合してSHAPを拡張したPythonパッケージを提案する。
この統合は、ユーザ定義パラメータ(機能エイリアス、記述、追加の背景など)によってガイドされ、モデルコンテキストとユーザ視点の両方の説明を調整します。
この拡張は、SHAP説明の認識可能性を向上させることができると仮定する。
提案パッケージの有効性を評価するため,本パッケージを医療関連ケーススタディに適用し,実際のエンドユーザによるユーザ評価を行った。
その結果, 視覚のみのアウトプットに比べて, 生成した説明が理解しやすく, 文脈的に適切であることがわかった。
これらの知見は予備的なものであるが,よりユーザフレンドリで信頼性の高いモデル説明を支援することが示唆されている。
関連論文リスト
- MetaExplainer: A Framework to Generate Multi-Type User-Centered Explanations for AI Systems [1.9811010456089264]
ユーザ中心の説明を生成するために設計された,ニューロシンボリックなフレームワークであるMetaExplainerを紹介する。
提案手法には3段階のプロセスがある: まず, 現状の大規模言語モデル (LLM) を用いて, ユーザ質問を機械可読形式に分解し, 第二に, システムレコメンデーションを生成するタスクをモデル記述者メソッドに委譲し, そして最後に, 説明者出力を要約した自然言語説明を合成する。
論文 参考訳(メタデータ) (2025-08-01T04:01:40Z) - Found in Translation: semantic approaches for enhancing AI interpretability in face verification [0.4222205362654437]
本研究は,XAIフレームワークに意味概念を統合することで,モデル出力と人間の理解の包括的ギャップを埋めることにより,これまでの研究を拡張した。
ユーザが選択した顔のランドマークによって定義された意味的特徴を用いて,グローバルな説明とローカルな説明を組み合わせた新しいアプローチを提案する。
結果は、セマンティックベースのアプローチ、特に最も詳細なセットは、従来の手法よりも、モデル決定をよりきめ細やかな理解を提供することを示している。
論文 参考訳(メタデータ) (2025-01-06T08:34:53Z) - From Feature Importance to Natural Language Explanations Using LLMs with RAG [4.204990010424084]
大規模言語モデル(LLM)の応答に外部知識リポジトリを活用して,トレーサブルな質問応答を導入する。
この知識リポジトリは、高レベルの特徴、特徴の重要性、代替確率を含む、モデルの出力に関するコンテキストの詳細を含む。
社会的・因果的・選択的・コントラスト的な4つの重要な特徴を、人間の説明に関する社会科学研究から一発のプロンプトへと統合し、応答生成過程を導く。
論文 参考訳(メタデータ) (2024-07-30T17:27:20Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。