論文の概要: Are Large Language Models Post Hoc Explainers?
- arxiv url: http://arxiv.org/abs/2310.05797v3
- Date: Mon, 26 Feb 2024 20:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 22:07:24.991432
- Title: Are Large Language Models Post Hoc Explainers?
- Title(参考訳): 大規模言語モデルはホックな説明の後か?
- Authors: Nicholas Kroeger, Dan Ley, Satyapriya Krishna, Chirag Agarwal,
Himabindu Lakkaraju
- Abstract要約: 大規模言語モデル(LLM)は、様々なタスクで有効な強力なツールとして登場した。
我々は,LLMの文脈内学習機能を利用した3つの新しい手法を提案し,他の複雑なモデルによる予測を説明する。
我々は、これらのアプローチを実世界のデータセット上で広範囲に実験し、LLMが最先端のポストホック説明器と同等に動作することを示す。
- 参考スコア(独自算出の注目度): 30.46464564836906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing use of predictive models in high-stakes settings highlights
the need for ensuring that relevant stakeholders understand and trust the
decisions made by these models. To this end, several approaches have been
proposed in recent literature to explain the behavior of complex predictive
models in a post hoc fashion. However, despite the growing number of such post
hoc explanation techniques, many require white-box access to the model and/or
are computationally expensive, highlighting the need for next-generation post
hoc explainers. Recently, Large Language Models (LLMs) have emerged as powerful
tools that are effective at a wide variety of tasks. However, their potential
to explain the behavior of other complex predictive models remains relatively
unexplored. In this work, we carry out one of the initial explorations to
analyze the effectiveness of LLMs in explaining other complex predictive
models. To this end, we propose three novel approaches that exploit the
in-context learning (ICL) capabilities of LLMs to explain the predictions made
by other complex models. We conduct extensive experimentation with these
approaches on real-world datasets to demonstrate that LLMs perform on par with
state-of-the-art post hoc explainers, opening up promising avenues for future
research into LLM-based post hoc explanations of complex predictive models.
- Abstract(参考訳): 高リスク設定における予測モデルの利用の増加は、関連するステークホルダがこれらのモデルによる決定を理解し、信頼することの必要性を強調します。
この目的のために、ポストホック方式で複雑な予測モデルの振る舞いを説明するために、最近の文献でいくつかのアプローチが提案されている。
しかし、そのようなポストホックな説明技術が増えているにもかかわらず、多くの場合、モデルへのホワイトボックスアクセスや計算コストが必要であり、次世代のポストホック説明器の必要性を強調している。
近年,Large Language Models (LLM) は,様々なタスクに有効な強力なツールとして出現している。
しかし、他の複雑な予測モデルの振る舞いを説明する可能性は比較的未解明である。
本研究では,他の複雑な予測モデルを説明する上で LLM の有効性を解析するための最初の調査を行う。
そこで本研究では,llmの文脈内学習(icl)機能を活用し,他の複雑なモデルによる予測を説明する3つの新しい手法を提案する。
我々は、これらのアプローチを実世界のデータセット上で広範囲に実験し、LLMが最先端のポストホック説明器と同等に機能することを実証し、複雑な予測モデルに関するLLMベースのポストホック説明の今後の研究に期待できる道を開く。
関連論文リスト
- Enhancing Advanced Visual Reasoning Ability of Large Language Models [20.32900494896848]
VL(Vision-Language)研究の最近の進歩は、複雑な視覚的推論のための新しいベンチマークを引き起こした。
我々はCVR-LLM(Complex Visual Reasoning Large Language Models)を提案する。
提案手法は,反復的自己修正ループを用いて,画像の詳細なコンテキスト認識記述に変換する。
また、LLMの文脈的理解と推論を強化するために、新しいマルチモーダル・インコンテキスト学習(ICL)手法を導入する。
論文 参考訳(メタデータ) (2024-09-21T02:10:19Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Towards Modeling Learner Performance with Large Language Models [7.002923425715133]
本稿では,LLMのパターン認識とシーケンスモデリング機能が,知識追跡の領域にまで拡張できるかどうかを検討する。
ゼロショットプロンプト(ゼロショットプロンプト)とモデル微調整(モデル微調整)の2つの手法と,既存のLLM以外の知識追跡手法を比較した。
LLMベースのアプローチは最先端のパフォーマンスを達成しないが、微調整のLLMは素早いベースラインモデルの性能を上回り、標準的なベイズ的知識追跡手法と同等に機能する。
論文 参考訳(メタデータ) (2024-02-29T14:06:34Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。