論文の概要: From Understanding to Utilization: A Survey on Explainability for Large
Language Models
- arxiv url: http://arxiv.org/abs/2401.12874v1
- Date: Tue, 23 Jan 2024 16:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 15:08:02.314474
- Title: From Understanding to Utilization: A Survey on Explainability for Large
Language Models
- Title(参考訳): 理解から利用へ:大規模言語モデルの説明可能性に関する調査
- Authors: Haoyan Luo, Lucia Specia
- Abstract要約: 本稿では,Large Language Models (LLM)における説明可能性の向上の必要性を強調する。
本稿では、既存の説明可能性手法を分類し、モデルの透明性と信頼性を改善するための応用について論じる。
本調査の目的は,理論的理解と実践的応用のギャップを埋めることであり,LLM説明可能性の分野における今後の研究・開発への洞察を提供することである。
- 参考スコア(独自算出の注目度): 27.295767173801426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This survey paper delves into the burgeoning field of explainability for
Large Language Models (LLMs), a critical yet challenging aspect of natural
language processing. With LLMs playing a pivotal role in various applications,
their "black-box" nature raises concerns about transparency and ethical use.
This paper emphasizes the necessity for enhanced explainability in LLMs,
addressing both the general public's trust and the technical community's need
for a deeper understanding of these models. We concentrate on pre-trained
Transformer-based LLMs, such as LLaMA, which present unique interpretability
challenges due to their scale and complexity. Our review categorizes existing
explainability methods and discusses their application in improving model
transparency and reliability. We also discuss representative evaluation
methods, highlighting their strengths and limitations. The goal of this survey
is to bridge the gap between theoretical understanding and practical
application, offering insights for future research and development in the field
of LLM explainability.
- Abstract(参考訳): 本稿では,自然言語処理の批判的かつ挑戦的な側面である大規模言語モデル(llms)の解説可能性の急成長分野について考察する。
LLMは様々なアプリケーションにおいて重要な役割を担っているため、それらの「ブラックボックス」の性質は透明性と倫理的利用に対する関心を高めている。
本稿では, LLMにおける説明可能性の向上の必要性を強調し, 一般市民の信頼と技術コミュニティの両立の必要性に対処する。
我々は、LLaMAのような事前学習されたトランスフォーマーベースのLLMに焦点を合わせ、そのスケールと複雑さにより、独特な解釈可能性の課題を提示する。
本稿では、既存の説明可能性手法を分類し、モデルの透明性と信頼性を改善するための応用について論じる。
また,代表的評価手法についても議論し,その強みと限界を強調した。
本調査の目的は,理論的理解と実践的応用のギャップを埋めることであり,LLM説明可能性の分野における今後の研究・開発への洞察を提供することである。
関連論文リスト
- RUPBench: Benchmarking Reasoning Under Perturbations for Robustness Evaluation in Large Language Models [12.112914393948415]
RUPBenchは,多種多様な推論タスクにわたる大規模言語モデル(LLM)を評価するために設計されたベンチマークである。
我々のベンチマークには15の推論データセットが組み込まれており、コモンセンス、算術、論理、知識集約推論に分類されている。
GPT-4o, Llama3, Phi-3, Gemmaといった最先端のLCMの原文および摂動データセットの性能を調べることにより, その堅牢性およびエラーパターンを詳細に解析する。
論文 参考訳(メタデータ) (2024-06-16T17:26:44Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Towards Uncovering How Large Language Model Works: An Explainability Perspective [38.07611356855978]
大規模言語モデル(LLM)は言語タスクのブレークスルーをもたらしたが、その顕著な一般化と推論能力を実現する内部メカニズムは不透明のままである。
本稿では,LLM機能の基礎となるメカニズムを,説明可能性のレンズを通して明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-02-16T13:46:06Z) - History, Development, and Principles of Large Language Models-An Introductory Survey [15.875687167037206]
自然言語処理(NLP)の基盤となる言語モデル
数十年にわたる広範な研究を経て、言語モデリングは、初期統計言語モデル(SLM)から、大規模言語モデル(LLM)の現代的景観へと進歩してきた。
論文 参考訳(メタデータ) (2024-02-10T01:18:15Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。