論文の概要: LLMs for Explainable AI: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2504.00125v1
- Date: Mon, 31 Mar 2025 18:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:16.182531
- Title: LLMs for Explainable AI: A Comprehensive Survey
- Title(参考訳): 説明可能なAIのためのLLM: 総合的な調査
- Authors: Ahsan Bilal, David Ebert, Beiyu Lin,
- Abstract要約: 大規模言語モデル(LLM)は、説明可能なAI(XAI)を強化するための有望なアプローチを提供する
LLMは複雑な機械学習出力を理解しやすい物語に変換する。
LLMは洗練されたモデル行動と人間の解釈可能性のギャップを埋めることができる。
- 参考スコア(独自算出の注目度): 0.7373617024876725
- License:
- Abstract: Large Language Models (LLMs) offer a promising approach to enhancing Explainable AI (XAI) by transforming complex machine learning outputs into easy-to-understand narratives, making model predictions more accessible to users, and helping bridge the gap between sophisticated model behavior and human interpretability. AI models, such as state-of-the-art neural networks and deep learning models, are often seen as "black boxes" due to a lack of transparency. As users cannot fully understand how the models reach conclusions, users have difficulty trusting decisions from AI models, which leads to less effective decision-making processes, reduced accountabilities, and unclear potential biases. A challenge arises in developing explainable AI (XAI) models to gain users' trust and provide insights into how models generate their outputs. With the development of Large Language Models, we want to explore the possibilities of using human language-based models, LLMs, for model explainabilities. This survey provides a comprehensive overview of existing approaches regarding LLMs for XAI, and evaluation techniques for LLM-generated explanation, discusses the corresponding challenges and limitations, and examines real-world applications. Finally, we discuss future directions by emphasizing the need for more interpretable, automated, user-centric, and multidisciplinary approaches for XAI via LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な機械学習出力を理解しやすい物語に変換することによって、説明可能なAI(XAI)を強化するための有望なアプローチを提供する。
最先端のニューラルネットワークやディープラーニングモデルといったAIモデルは、透明性の欠如を理由に、しばしば“ブラックボックス”と見なされる。
ユーザーはモデルがどのように結論に達するかを完全に理解できないため、AIモデルからの判断を信頼することは困難であり、それによって効率的な意思決定プロセスが減り、説明能力が低下し、潜在的なバイアスが不明確になる。
ユーザの信頼を得て、モデルがアウトプットを生成する方法に関する洞察を提供するために、説明可能なAI(XAI)モデルの開発に課題が生じる。
大規模言語モデルの開発において,人間の言語モデル,LLMをモデル説明能力に活用する可能性を探究する。
本調査では,XAI 用 LLM に関する既存のアプローチの概要と LLM 生成説明のための評価手法について概説し,対応する課題と限界について考察し,実世界の応用について検討する。
最後に,LLMによるXAIのより解釈可能な,自動化された,ユーザ中心の,多分野的なアプローチの必要性を強調し,今後の方向性について議論する。
関連論文リスト
- Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - A Review of Multimodal Explainable Artificial Intelligence: Past, Present and Future [10.264208559276927]
本総説は,MXAI手法開発における重要な知見を得ることを目的としている。
MXAIの手法は,従来の機械学習,ディープラーニング,差別的基礎モデル,ジェネレーティブLLMの4つの時代にまたがる。
また、MXAI研究で使用される評価指標やデータセットについても検討し、今後の課題や方向性について論じる。
論文 参考訳(メタデータ) (2024-12-18T17:06:21Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。