論文の概要: Are Large Language Models Post Hoc Explainers?
- arxiv url: http://arxiv.org/abs/2310.05797v3
- Date: Mon, 26 Feb 2024 20:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 22:07:24.991432
- Title: Are Large Language Models Post Hoc Explainers?
- Title(参考訳): 大規模言語モデルはホックな説明の後か?
- Authors: Nicholas Kroeger, Dan Ley, Satyapriya Krishna, Chirag Agarwal,
Himabindu Lakkaraju
- Abstract要約: 大規模言語モデル(LLM)は、様々なタスクで有効な強力なツールとして登場した。
我々は,LLMの文脈内学習機能を利用した3つの新しい手法を提案し,他の複雑なモデルによる予測を説明する。
我々は、これらのアプローチを実世界のデータセット上で広範囲に実験し、LLMが最先端のポストホック説明器と同等に動作することを示す。
- 参考スコア(独自算出の注目度): 30.46464564836906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing use of predictive models in high-stakes settings highlights
the need for ensuring that relevant stakeholders understand and trust the
decisions made by these models. To this end, several approaches have been
proposed in recent literature to explain the behavior of complex predictive
models in a post hoc fashion. However, despite the growing number of such post
hoc explanation techniques, many require white-box access to the model and/or
are computationally expensive, highlighting the need for next-generation post
hoc explainers. Recently, Large Language Models (LLMs) have emerged as powerful
tools that are effective at a wide variety of tasks. However, their potential
to explain the behavior of other complex predictive models remains relatively
unexplored. In this work, we carry out one of the initial explorations to
analyze the effectiveness of LLMs in explaining other complex predictive
models. To this end, we propose three novel approaches that exploit the
in-context learning (ICL) capabilities of LLMs to explain the predictions made
by other complex models. We conduct extensive experimentation with these
approaches on real-world datasets to demonstrate that LLMs perform on par with
state-of-the-art post hoc explainers, opening up promising avenues for future
research into LLM-based post hoc explanations of complex predictive models.
- Abstract(参考訳): 高リスク設定における予測モデルの利用の増加は、関連するステークホルダがこれらのモデルによる決定を理解し、信頼することの必要性を強調します。
この目的のために、ポストホック方式で複雑な予測モデルの振る舞いを説明するために、最近の文献でいくつかのアプローチが提案されている。
しかし、そのようなポストホックな説明技術が増えているにもかかわらず、多くの場合、モデルへのホワイトボックスアクセスや計算コストが必要であり、次世代のポストホック説明器の必要性を強調している。
近年,Large Language Models (LLM) は,様々なタスクに有効な強力なツールとして出現している。
しかし、他の複雑な予測モデルの振る舞いを説明する可能性は比較的未解明である。
本研究では,他の複雑な予測モデルを説明する上で LLM の有効性を解析するための最初の調査を行う。
そこで本研究では,llmの文脈内学習(icl)機能を活用し,他の複雑なモデルによる予測を説明する3つの新しい手法を提案する。
我々は、これらのアプローチを実世界のデータセット上で広範囲に実験し、LLMが最先端のポストホック説明器と同等に機能することを実証し、複雑な予測モデルに関するLLMベースのポストホック説明の今後の研究に期待できる道を開く。
関連論文リスト
- Explanation-aware Soft Ensemble Empowers Large Language Model In-context
Learning [50.00090601424348]
大規模言語モデル(LLM)は、様々な自然言語理解タスクにおいて顕著な能力を示している。
我々は,LLMを用いたテキスト内学習を支援するための説明型ソフトアンサンブルフレームワークであるEASEを提案する。
論文 参考訳(メタデータ) (2023-11-13T06:13:38Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Post Hoc Explanations of Language Models Can Improve Language Models [43.2109029463221]
AMPLIFY(Post Hoc Explanations)を用いたインコンテキスト学習の活用によるモデル性能向上のための新しいフレームワークを提案する。
我々は,各入力特徴がモデル予測に与える影響を抽出し,帰属スコア(説明)を出力するポストホック説明手法を活用する。
AMPLIFYは,幅広いタスクに対して約10~25%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-05-19T04:46:04Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Explaining Large Language Model-Based Neural Semantic Parsers (Student
Abstract) [0.0]
大規模言語モデル (LLM) は意味解析などの構造化予測タスクにおいて強力な機能を示した。
我々の研究は、LLMに基づく意味的行動を説明するための様々な方法について研究している。
今後の研究をより深く理解していきたいと考えています。
論文 参考訳(メタデータ) (2023-01-25T16:12:43Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Coalitional strategies for efficient individual prediction explanation [0.0]
本稿では,関連する属性群 -- 名前付き連立 -- の検出に基づく手法を提供し,予測に影響を与える。
以上の結果から,これらの連立手法はSHapley Additive exPlanationなどの既存手法よりも効率的であることが示唆された。
論文 参考訳(メタデータ) (2021-04-01T21:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。