論文の概要: Towards Transparent AI: A Survey on Explainable Large Language Models
- arxiv url: http://arxiv.org/abs/2506.21812v1
- Date: Thu, 26 Jun 2025 23:25:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.030052
- Title: Towards Transparent AI: A Survey on Explainable Large Language Models
- Title(参考訳): 透明AIに向けて - 説明可能な大規模言語モデルに関する調査
- Authors: Avash Palikhe, Zhenyu Yu, Zichong Wang, Wenbin Zhang,
- Abstract要約: 大規模言語モデル(LLM)は人工知能(AI)の進歩において重要な役割を担っている
LLMは意思決定プロセスを説明するのに苦労し、それらを"ブラックボックス"にし、説明可能性に重大な課題を提示します。
これらの制限を克服するために、研究者は様々な説明可能な人工知能(XAI)法を開発した。
- 参考スコア(独自算出の注目度): 2.443957114877221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have played a pivotal role in advancing Artificial Intelligence (AI). However, despite their achievements, LLMs often struggle to explain their decision-making processes, making them a 'black box' and presenting a substantial challenge to explainability. This lack of transparency poses a significant obstacle to the adoption of LLMs in high-stakes domain applications, where interpretability is particularly essential. To overcome these limitations, researchers have developed various explainable artificial intelligence (XAI) methods that provide human-interpretable explanations for LLMs. However, a systematic understanding of these methods remains limited. To address this gap, this survey provides a comprehensive review of explainability techniques by categorizing XAI methods based on the underlying transformer architectures of LLMs: encoder-only, decoder-only, and encoder-decoder models. Then these techniques are examined in terms of their evaluation for assessing explainability, and the survey further explores how these explanations are leveraged in practical applications. Finally, it discusses available resources, ongoing research challenges, and future directions, aiming to guide continued efforts toward developing transparent and responsible LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人工知能(AI)の進歩において重要な役割を担っている。
しかしながら、その成果にもかかわらず、LSMは意思決定プロセスの説明に苦慮し、それらを"ブラックボックス"にし、説明可能性に重大な課題を提示します。
この透明性の欠如は、インタープリタビリティが特に不可欠である高度なドメインアプリケーションでLLMを採用する上で、大きな障害となる。
これらの制限を克服するために、研究者はLLMの人間解釈可能な説明を提供する様々な説明可能な人工知能(XAI)手法を開発した。
しかし、これらの手法の体系的な理解は依然として限られている。
このギャップに対処するために、この調査は、LLMの基盤となるトランスフォーマーアーキテクチャ(エンコーダのみ、デコーダのみ、エンコーダ-デコーダモデル)に基づいてXAIメソッドを分類することで、説明可能性のテクニックを包括的にレビューする。
次に,これらの手法を説明可能性評価の観点から検討し,これらの手法が実用化にどのように活用されるかをさらに調査する。
最後に、利用可能な資源、進行中の研究課題、今後の方向性について論じ、透明で責任あるLCMの開発への継続的な取り組みを導くことを目的としている。
関連論文リスト
- Don't Just Translate, Agitate: Using Large Language Models as Devil's Advocates for AI Explanations [1.6855625805565164]
大型言語モデル(LLM)は、特徴量などの説明可能性のテクニックから、自然言語の説明への変換に使用される。
最近の知見は、人間のような説明に翻訳することは、必ずしもユーザーの理解を高めるものではなく、代わりにAIシステムへの過度な信頼につながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-04-16T18:45:18Z) - LLMs for Explainable AI: A Comprehensive Survey [0.7373617024876725]
大規模言語モデル(LLM)は、説明可能なAI(XAI)を強化するための有望なアプローチを提供する
LLMは複雑な機械学習出力を理解しやすい物語に変換する。
LLMは洗練されたモデル行動と人間の解釈可能性のギャップを埋めることができる。
論文 参考訳(メタデータ) (2025-03-31T18:19:41Z) - Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [76.12435556140515]
XAIは大規模言語モデル(LLM)の説明に向けて拡張されている
本稿では、XAIがLLMベースのAIシステムをどのように説明し、改善するかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。