論文の概要: LMExplainer: a Knowledge-Enhanced Explainer for Language Models
- arxiv url: http://arxiv.org/abs/2303.16537v2
- Date: Thu, 3 Aug 2023 23:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 16:01:41.551708
- Title: LMExplainer: a Knowledge-Enhanced Explainer for Language Models
- Title(参考訳): LMExplainer: 言語モデルのための知識強化型説明器
- Authors: Zichen Chen, Ambuj K Singh, Misha Sra
- Abstract要約: GPT-4のような大規模言語モデル(LLM)は非常に強力であり、異なる種類の自然言語処理(NLP)タスクを処理できる。
言語モデル(LM)の動作の明確さと理解の欠如は、現実のシナリオで使用する上で、信頼できない、信頼できない、潜在的に危険なものにします。
本稿では,人間に理解可能な説明を提供する,知識を駆使したLMExplainerを提案する。
- 参考スコア(独自算出の注目度): 23.286843033345658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) such as GPT-4 are very powerful and can process
different kinds of natural language processing (NLP) tasks. However, it can be
difficult to interpret the results due to the multi-layer nonlinear model
structure and millions of parameters. A lack of clarity and understanding of
how the language models (LMs) work can make them unreliable, difficult to
trust, and potentially dangerous for use in real-world scenarios. Most recent
works exploit attention weights to provide explanations for LM predictions.
However, pure attention-based explanations are unable to support the growing
complexity of LMs, and cannot reason about their decision-making processes. We
propose LMExplainer, a knowledge-enhanced explainer for LMs that can provide
human-understandable explanations. We use a knowledge graph (KG) and a graph
attention neural network to extract the key decision signals of the LM. We
further explore whether interpretation can also help the AI understand the task
better. Our experimental results show that LMExplainer outperforms existing
LM+KG methods on CommonsenseQA and OpenBookQA. We compare the explanation
results with generated explanation methods and human-annotated results. The
comparison shows our method can provide more comprehensive and clearer
explanations. LMExplainer demonstrates the potential to enhance model
performance and furnish explanations for the LM reasoning process in natural
language.
- Abstract(参考訳): GPT-4のような大規模言語モデル(LLM)は非常に強力であり、異なる種類の自然言語処理(NLP)タスクを処理できる。
しかし、多層非線形モデル構造と数百万のパラメータによる結果の解釈は困難である。
言語モデル(LM)の動作の明確さと理解の欠如は、現実のシナリオで使用する上で、信頼できない、信頼できない、潜在的に危険なものにします。
最近では、注意重みを利用してLM予測の説明を行っている。
しかし、純粋注意に基づく説明は、LMの複雑さの増大を支持することができず、意思決定プロセスについて説明できない。
本稿では,人間に理解可能な説明を提供する,知識を駆使したLMExplainerを提案する。
我々は、知識グラフ(KG)とグラフ注意ニューラルネットワークを用いて、LMの重要な決定信号を抽出する。
さらに、AIがタスクをよりよく理解するのに解釈が役立つかどうかについても検討する。
実験の結果,LMExplainer は CommonsenseQA と OpenBookQA で既存の LM+KG 法より優れていることがわかった。
説明結果と生成した説明方法と人間の注釈による結果を比較した。
比較の結果,より包括的かつ明確な説明が得られた。
LMExplainerは、自然言語におけるLM推論プロセスのモデル性能の向上と説明を提供する。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Towards Uncovering How Large Language Model Works: An Explainability Perspective [38.07611356855978]
大規模言語モデル(LLM)は言語タスクのブレークスルーをもたらしたが、その顕著な一般化と推論能力を実現する内部メカニズムは不透明のままである。
本稿では,LLM機能の基礎となるメカニズムを,説明可能性のレンズを通して明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-02-16T13:46:06Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - XplainLLM: A QA Explanation Dataset for Understanding LLM
Decision-Making [13.928951741632815]
大規模言語モデル(LLM)は、最近、自然言語理解タスクにおいて顕著な進歩を遂げた。
本稿では、新しい説明データセットを導入することにより、このプロセスに透明性をもたらすことを検討する。
我々のデータセットには12,102のQAEトリプルが含まれている。
論文 参考訳(メタデータ) (2023-11-15T00:34:28Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。