論文の概要: Learning to Explain: Prototype-Based Surrogate Models for LLM Classification
- arxiv url: http://arxiv.org/abs/2505.18970v2
- Date: Mon, 02 Jun 2025 02:47:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:29.971506
- Title: Learning to Explain: Prototype-Based Surrogate Models for LLM Classification
- Title(参考訳): 説明の学習: LLM分類のためのプロトタイプベースサロゲートモデル
- Authors: Bowen Wei, Mehrdad Fazli, Ziwei Zhu,
- Abstract要約: 大規模言語モデル (LLM) は、自然言語処理における顕著な性能を示しているが、その決定過程はほとんど不透明である。
プロトタイプベースのサロゲートフレームワークである textbfProtoSurE を提案する。
- 参考スコア(独自算出の注目度): 1.7373859011890633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated impressive performance on natural language tasks, but their decision-making processes remain largely opaque. Existing explanation methods either suffer from limited faithfulness to the model's reasoning or produce explanations that humans find difficult to understand. To address these challenges, we propose \textbf{ProtoSurE}, a novel prototype-based surrogate framework that provides faithful and human-understandable explanations for LLMs. ProtoSurE trains an interpretable-by-design surrogate model that aligns with the target LLM while utilizing sentence-level prototypes as human-understandable concepts. Extensive experiments show that ProtoSurE consistently outperforms SOTA explanation methods across diverse LLMs and datasets. Importantly, ProtoSurE demonstrates strong data efficiency, requiring relatively few training examples to achieve good performance, making it practical for real-world applications.
- Abstract(参考訳): 大規模言語モデル (LLM) は、自然言語処理における顕著な性能を示しているが、その決定過程はほとんど不透明である。
既存の説明法は、モデルの推論に対する限定的な忠実さに悩まされるか、人間が理解しにくいと感じる説明を生成するかのいずれかである。
これらの課題に対処するために, LLM に忠実で人間に理解可能な説明を提供する, プロトタイプベースの新しいサロゲートフレームワークである \textbf{ProtoSurE} を提案する。
ProtoSurEは、文レベルのプロトタイプを人間の理解可能な概念として利用しながら、ターゲットのLLMと整合する解釈可能な設計代理モデルを訓練する。
大規模な実験により、ProtoSurEは様々なLLMとデータセット間でSOTA説明手法を一貫して上回っていることが示されている。
重要な点として、ProtoSurEは強力なデータ効率を示し、優れたパフォーマンスを達成するために比較的少数のトレーニング例を必要とするため、現実世界のアプリケーションでは実用的である。
関連論文リスト
- Self-Refine Instruction-Tuning for Aligning Reasoning in Language Models [0.8133739801185272]
小さい言語モデルと大きい言語モデルの間の推論能力のアライメントは、主にスーパーバイザード・ファイン・チューニング(SFT)を通して行われる。
そこで本研究では,より小さな言語モデルを用いて自己定義する自己記述型指導手法を提案する。
コモンセンスと数学の推論タスクで得られた結果は、このアプローチがドメイン内とドメイン外の両方のシナリオでインストラクションチューニングを著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-01T09:10:27Z) - Integrating Explanations in Learning LTL Specifications from Demonstrations [6.070833893646998]
本稿では,LTL(Learar Temporal Logic)の学習を支援する形式として,Large Language Models (LLMs) の最近の進歩が人間の説明の翻訳に有効かどうかを検討する。
本稿では, LLMと最適化に基づく手法を組み合わせて, 人間の説明や実演を忠実に仕様に翻訳する手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T17:09:00Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - Proto-lm: A Prototypical Network-Based Framework for Built-in
Interpretability in Large Language Models [27.841725567976315]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させてきたが、その解釈可能性の欠如が大きな関心事となっている。
本稿では,LLMが即座に解釈可能な埋め込みを学習できるネットワークベースのホワイトボックスフレームワークであるproto-lmを紹介する。
提案手法の適用性と解釈性は,幅広いNLPタスクの実験を通じて実証され,性能を犠牲にすることなく解釈可能なモデルを作成する新たな可能性を示す。
論文 参考訳(メタデータ) (2023-11-03T05:55:32Z) - In-Context Explainers: Harnessing LLMs for Explaining Black Box Models [28.396104334980492]
大規模言語モデル(LLM)は、機械翻訳、常識推論、言語理解といった複雑なタスクにおいて、例外的な機能を示している。
このような多様なタスクにおけるLLMの適応性の主要な理由の1つは、インコンテキスト学習(ICL)能力である。
本稿では,LLMのICL機能を利用して,他の予測モデルによる予測を説明する新しい3つの手法,In-Context Explainersを提案する。
論文 参考訳(メタデータ) (2023-10-09T15:31:03Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。