論文の概要: Compact Example-Based Explanations for Language Models
- arxiv url: http://arxiv.org/abs/2601.03786v1
- Date: Wed, 07 Jan 2026 10:36:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.180194
- Title: Compact Example-Based Explanations for Language Models
- Title(参考訳): 言語モデルのためのコンパクトな例に基づく説明法
- Authors: Loris Schoenegger, Benjamin Roth,
- Abstract要約: モデルの出力に対するトレーニング文書の寄与を定量化する訓練データ影響推定方法。
人間は何千もの文書を解釈できないため、トレーニングデータのごく一部しか説明できない。
本稿では,モデルの出力を説明する上で,サンプルの集合がいかに有用であるかを定量化する,リトレーニングフリーな指標である,新しい選択関連スコアを提案する。
- 参考スコア(独自算出の注目度): 1.8772057593980798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training data influence estimation methods quantify the contribution of training documents to a model's output, making them a promising source of information for example-based explanations. As humans cannot interpret thousands of documents, only a small subset of the training data can be presented as an explanation. Although the choice of which documents to include directly affects explanation quality, previous evaluations of such systems have largely ignored any selection strategies. To address this, we propose a novel selection relevance score, a retraining-free metric that quantifies how useful a set of examples is for explaining a model's output. We validate this score through fine-tuning experiments, confirming that it can predict whether a set of examples supports or undermines the model's predictions. Using this metric, we further show that common selection strategies often underperform random selection. Motivated by this finding, we propose a strategy that balances influence and representativeness, enabling better use of selection budgets than naively selecting the highest-ranking examples.
- Abstract(参考訳): トレーニングデータ影響推定手法は、トレーニング文書のモデル出力への寄与を定量化し、サンプルベースの説明のための情報源として有望なものである。
人間は何千もの文書を解釈できないため、トレーニングデータのごく一部しか説明できない。
どの文書を包含するかは、説明の質に影響を及ぼすが、そのようなシステムの以前の評価は、選択戦略をほとんど無視してきた。
そこで本研究では,モデルの出力を説明する上で,サンプルの集合がいかに有用であるかを定量化する,リトレーニングフリーなメトリクスである,新しい選択関連スコアを提案する。
我々は、このスコアを微調整実験によって検証し、サンプルのセットがモデルの予測を裏付けるかどうかを予測できることを確認した。
この測定値を用いて、一般的な選択戦略がしばしばランダム選択を過小評価していることを示す。
この発見に動機づけられた我々は、影響力と代表性のバランスをとる戦略を提案し、上位の事例を選択的に選択するよりも、選択予算の有効利用を可能にした。
関連論文リスト
- Scalable Influence and Fact Tracing for Large Language Model Pretraining [14.598556308631018]
トレーニングデータ属性(TDA)メソッドは、特定のトレーニング例にモデル出力を振り返ることを目的としている。
我々は,既存の勾配法を改良し,大規模に効果的に機能させる。
我々は、インプロンプトセットとモデルアウトプットをWebベースの可視化ツールとともにリリースし、影響力のある例を探索します。
論文 参考訳(メタデータ) (2024-10-22T20:39:21Z) - Deep Neural Network Benchmarks for Selective Classification [27.098996474946446]
複数の選択的な分類フレームワークが存在し、その多くはディープニューラルネットワークアーキテクチャに依存している。
提案手法は,選択誤差率,経験的カバレッジ,拒否されたインスタンスのクラス分布,アウト・オブ・ディストリビューション・インスタンスの性能など,いくつかの基準を用いて評価する。
論文 参考訳(メタデータ) (2024-01-23T12:15:47Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context Learners in Large Language Models [63.15355173909631]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - Towards Informative Few-Shot Prompt with Maximum Information Gain for
In-Context Learning [30.536184852029386]
大規模言語モデル (LLM) は、文脈内学習 (ICL) を行う能力を有する。
LLMは、新しい下流タスクを条件としていくつかのデモを活用することで、ICL(In-context Learning)に参加する能力を持っている。
しかし、この特定の学習パラダイムは、選択されたサンプルの入力分布、順序付け、プロンプトフォーマットなどの要因によって引き起こされる実質的なばらつきから生じる高い不安定さに悩まされる。
論文 参考訳(メタデータ) (2023-10-13T07:49:11Z) - Finding Support Examples for In-Context Learning [73.90376920653507]
本稿では,この課題を2段階に解決するためのfilter-thEN-Search法であるLENSを提案する。
まず、データセットをフィルタリングして、個別に情報的インコンテキストの例を得る。
そこで本研究では,反復的に改良し,選択したサンプル順列を評価可能な多様性誘導型サンプル探索を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:32:45Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。