論文の概要: Towards Transparent AI: A Survey on Explainable Language Models
- arxiv url: http://arxiv.org/abs/2509.21631v1
- Date: Thu, 25 Sep 2025 21:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.041193
- Title: Towards Transparent AI: A Survey on Explainable Language Models
- Title(参考訳): 透明AIに向けて - 説明可能な言語モデルに関する調査
- Authors: Avash Palikhe, Zichong Wang, Zhipeng Yin, Rui Guo, Qiang Duan, Jie Yang, Wenbin Zhang,
- Abstract要約: 言語モデル(LM)は、自然言語処理を著しく進歩させ、様々な領域で顕著な進歩を可能にした。
透明性の欠如は、高い領域の採用において特に問題となる。
XAI法は非LMに対してよく研究されているが、LMに適用した場合、多くの制限に直面している。
- 参考スコア(独自算出の注目度): 22.70051215800476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language Models (LMs) have significantly advanced natural language processing and enabled remarkable progress across diverse domains, yet their black-box nature raises critical concerns about the interpretability of their internal mechanisms and decision-making processes. This lack of transparency is particularly problematic for adoption in high-stakes domains, where stakeholders need to understand the rationale behind model outputs to ensure accountability. On the other hand, while explainable artificial intelligence (XAI) methods have been well studied for non-LMs, they face many limitations when applied to LMs due to their complex architectures, considerable training corpora, and broad generalization abilities. Although various surveys have examined XAI in the context of LMs, they often fail to capture the distinct challenges arising from the architectural diversity and evolving capabilities of these models. To bridge this gap, this survey presents a comprehensive review of XAI techniques with a particular emphasis on LMs, organizing them according to their underlying transformer architectures: encoder-only, decoder-only, and encoder-decoder, and analyzing how methods are adapted to each while assessing their respective strengths and limitations. Furthermore, we evaluate these techniques through the dual lenses of plausibility and faithfulness, offering a structured perspective on their effectiveness. Finally, we identify open research challenges and outline promising future directions, aiming to guide ongoing efforts toward the development of robust, transparent, and interpretable XAI methods for LMs.
- Abstract(参考訳): 言語モデル(LM)は、自然言語処理を著しく進歩させ、様々な領域で顕著な進歩を実現しているが、そのブラックボックスの性質は、内部メカニズムや意思決定プロセスの解釈可能性に関する重要な懸念を引き起こす。
この透明性の欠如は、説明責任を保証するために、モデルアウトプットの背後にある理論的根拠を理解する必要がある、高レベルなドメインの採用において特に問題となる。
一方、説明可能な人工知能(XAI)法は非LMに対してよく研究されているが、複雑なアーキテクチャ、かなりの訓練コーパス、広範囲の一般化能力により、LMに適用された場合、多くの制限に直面している。
様々な調査がLMの文脈でXAIを調査しているが、これらのモデルのアーキテクチャの多様性と進化する能力から生じる異なる課題を捉えていないことが多い。
このギャップを埋めるために、この調査では、XAIテクニックの包括的なレビューをLMに特に重点を置いて、その基盤となるトランスフォーマーアーキテクチャ(エンコーダのみ、デコーダのみ、エンコーダ-デコーダのみ、およびエンコーダ-デコーダ)に従って整理し、それぞれの長所と短所を評価しながらメソッドがどのように適合するかを分析する。
さらに,両レンズの妥当性と忠実度を両立させ,その有効性を構造化した視点で評価した。
最後に、オープンな研究課題を特定し、将来的な方向性を概説し、LMのための堅牢で透明で解釈可能なXAI手法の開発に向けた継続的な取り組みを導くことを目的とする。
関連論文リスト
- Towards Transparent AI: A Survey on Explainable Large Language Models [2.443957114877221]
大規模言語モデル(LLM)は人工知能(AI)の進歩において重要な役割を担っている
LLMは意思決定プロセスを説明するのに苦労し、それらを"ブラックボックス"にし、説明可能性に重大な課題を提示します。
これらの制限を克服するために、研究者は様々な説明可能な人工知能(XAI)法を開発した。
論文 参考訳(メタデータ) (2025-06-26T23:25:22Z) - LLMs for Explainable AI: A Comprehensive Survey [0.7373617024876725]
大規模言語モデル(LLM)は、説明可能なAI(XAI)を強化するための有望なアプローチを提供する
LLMは複雑な機械学習出力を理解しやすい物語に変換する。
LLMは洗練されたモデル行動と人間の解釈可能性のギャップを埋めることができる。
論文 参考訳(メタデータ) (2025-03-31T18:19:41Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - A Survey on Sparse Autoencoders: Interpreting the Internal Mechanisms of Large Language Models [50.34089812436633]
大規模言語モデル(LLM)は自然言語処理を変換しているが、その内部メカニズムはほとんど不透明である。
機械的解釈性は、LLMの内部動作を理解する手段として、研究コミュニティから大きな注目を集めている。
スパースオートエンコーダ(SAE)は、LLM内の複雑な重畳された機能をより解釈可能なコンポーネントに分解する能力のために、将来性のある方法として登場した。
論文 参考訳(メタデータ) (2025-03-07T17:38:00Z) - Explainable artificial intelligence (XAI): from inherent explainability to large language models [0.0]
説明可能なAI(XAI)技術は、機械学習モデルの説明可能性や解釈可能性を促進する。
本稿では、本質的に解釈可能なモデルから現代的なアプローチまで、説明可能なAI手法の進歩について詳述する。
我々は、視覚言語モデル(VLM)フレームワークを利用して、他の機械学習モデルの説明可能性を自動化または改善する説明可能なAI技術についてレビューする。
論文 参考訳(メタデータ) (2025-01-17T06:16:57Z) - A Review of Multimodal Explainable Artificial Intelligence: Past, Present and Future [10.264208559276927]
本総説は,MXAI手法開発における重要な知見を得ることを目的としている。
MXAIの手法は,従来の機械学習,ディープラーニング,差別的基礎モデル,ジェネレーティブLLMの4つの時代にまたがる。
また、MXAI研究で使用される評価指標やデータセットについても検討し、今後の課題や方向性について論じる。
論文 参考訳(メタデータ) (2024-12-18T17:06:21Z) - Visual Error Patterns in Multi-Modal AI: A Statistical Approach [0.0]
MLLM(Multi-modal large language model)は、テキストと視覚データの統合に優れるが、曖昧さや不完全な視覚刺激を解釈する際に体系的な課題に直面する。
本研究では3D、回転、顔と面の欠如といった特徴を特徴とする幾何的刺激のデータセットを用いて、統計モデルを用いてこれらの誤差を駆動する要因を分析する。
論文 参考訳(メタデータ) (2024-11-27T01:20:08Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [76.12435556140515]
XAIは大規模言語モデル(LLM)の説明に向けて拡張されている
本稿では、XAIがLLMベースのAIシステムをどのように説明し、改善するかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。