論文の概要: CELL your Model: Contrastive Explanations for Large Language Models
- arxiv url: http://arxiv.org/abs/2406.11785v2
- Date: Wed, 16 Oct 2024 15:15:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:40:18.531296
- Title: CELL your Model: Contrastive Explanations for Large Language Models
- Title(参考訳): Cell your Model: 大規模言語モデルの対照的な説明
- Authors: Ronny Luss, Erik Miehling, Amit Dhurandhar,
- Abstract要約: 大規模言語モデル(LLM)では、説明すべきクラス予測は存在しない。代わりに、LLMが与えられたプロンプトに対して特定の応答を出力する理由を問うことができる。
我々の説明は、LLMが与えられたプロンプトに対して応答を出力していることを示唆している。なぜなら、もしプロンプトがわずかに修正されたら、LLMは異なる応答を与えられるだろう。
i) コントラストを作成するのに効果的であるが、多くのモデルコールが必要であり、i) より長いコンテキストで要求されるクエリ予算に適合するコントラストをインテリジェントに生成する予算付きアルゴリズム。
- 参考スコア(独自算出の注目度): 15.127559387747521
- License:
- Abstract: The advent of black-box deep neural network classification models has sparked the need to explain their decisions. However, in the case of generative AI, such as large language models (LLMs), there is no class prediction to explain. Rather, one can ask why an LLM output a particular response to a given prompt. In this paper, we answer this question by proposing, to the best of our knowledge, the first contrastive explanation methods requiring simply black-box/query access. Our explanations suggest that an LLM outputs a reply to a given prompt because if the prompt was slightly modified, the LLM would have given a different response that is either less preferable or contradicts the original response. The key insight is that contrastive explanations simply require a scoring function that has meaning to the user and not necessarily a specific real valued quantity (viz. class label). We offer two algorithms for finding contrastive explanations: i) A myopic algorithm, which although effective in creating contrasts, requires many model calls and ii) A budgeted algorithm, our main algorithmic contribution, which intelligently creates contrasts adhering to a query budget, necessary for longer contexts. We show the efficacy of these methods on diverse natural language tasks such as open-text generation, automated red teaming, and explaining conversational degradation.
- Abstract(参考訳): ブラックボックスのディープニューラルネットワーク分類モデルの出現は、彼らの決定を説明する必要性を喚起した。
しかし、大規模言語モデル(LLM)のような生成AIの場合、説明すべきクラス予測は存在しない。
むしろ、LLMが与えられたプロンプトに対して特定の応答を出力する理由を尋ねることができる。
本稿では,ブラックボックス/クエリアクセスが要求される最初のコントラスト的説明手法である,私たちの知識を最大限に活用することで,この問題に対処する。
我々の説明は、LLMが与えられたプロンプトに対して応答を出力していることを示唆している。なぜなら、もしプロンプトがわずかに修正されたら、LLMは異なる応答を与えられるだろう。
重要な洞察は、対照的な説明は単にユーザにとって意味を持つスコアリング関数を必要とし、必ずしも特定の実値の量(例えばクラスラベル)を必要としないことである。
対照的な説明を見つけるための2つのアルゴリズムを提供する。
一 コントラストを作成するのに有効であるが、多くのモデルコールを必要とする筋電図アルゴリズム
二 より長い文脈で必要となる、クエリ予算に固執するコントラストをインテリジェントに生成する、予算付きアルゴリズム、我々の主要なアルゴリズム貢献。
本稿では,これらの手法が,オープンテキスト生成や自動レッドチーム化,会話の劣化の説明など,多様な自然言語タスクに有効であることを示す。
関連論文リスト
- Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Can Small Language Models Help Large Language Models Reason Better?: LM-Guided Chain-of-Thought [51.240387516059535]
タスク推論において,ブラックボックスの大きな (>10B) LMを導くために,軽量 (すなわち 1B) 言語モデル (LM) を利用する新しいフレームワーク LM-Guided CoT を導入する。
1)知識蒸留と2)合理性指向とタスク指向の報酬信号からの強化学習を通してモデルを最適化する。
論文 参考訳(メタデータ) (2024-04-04T12:46:37Z) - Customizing Language Model Responses with Contrastive In-Context Learning [7.342346948935483]
我々は、コントラスト的な例を使って、私たちの意図をよりよく記述するアプローチを提案する。
これには、本当の意図を示す肯定的な例と、LLMが避けたい特性を示す否定的な例が含まれます。
答を生成する前に、モデルにサンプルを分析して、避けるべきことを教える。
この推論ステップは、モデルにユーザのニーズを適切に表現し、より良い回答を生成するためのガイドを提供します。
論文 参考訳(メタデータ) (2024-01-30T19:13:12Z) - Towards LLM-guided Causal Explainability for Black-box Text Classifiers [16.36602400590088]
我々は,近年の大規模言語モデルにおける命令追従とテキスト理解機能を活用して,因果的説明可能性を高めることを目指している。
提案する3ステップパイプラインは,既製のLCMを用いて,入力テキスト中の潜時的・未観測な特徴を識別する。
我々は,複数のNLPテキスト分類データセットを用いたパイプライン実験を行い,興味深い,有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-23T11:22:28Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Reliable Natural Language Understanding with Large Language Models and
Answer Set Programming [0.0]
大規模言語モデル(LLM)は、様々なNLPタスクを解くためにテキストのパターンを利用することができるが、推論を必要とする問題では不足している。
LLMとAnswer Set Programming(ASP)を組み合わせたフレームワークSTARを提案する。
目標指向のASPは、この知識を確実に推論するために使用される。
論文 参考訳(メタデータ) (2023-02-07T22:37:21Z) - Large Language Models are Better Reasoners with Self-Verification [48.534270563880845]
大規模言語モデル(LLM)は、いくつかの自然言語処理タスクにおいて強力な推論能力を示している。
思考の連鎖(CoT)を促進させるLLMは、個別のミスに非常に敏感な、多段階のプロンプトと多段階の予測を必要とする。
また,LLMにも同様な自己検証能力があることを示す。
論文 参考訳(メタデータ) (2022-12-19T15:51:52Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - NLX-GPT: A Model for Natural Language Explanations in Vision and
Vision-Language Tasks [18.13793282306575]
自然言語説明(NLE)モデルは、ブラックボックスシステムの意思決定プロセスを説明することを目的としている。
NLX-GPTは汎用的でコンパクトで忠実な言語モデルであり,回答を同時に予測し,それを説明できる。
次に、多回に渡り、汎用的で、データバイアスがあり、複数の形式で説明を評価できる問題に対処する。
論文 参考訳(メタデータ) (2022-03-09T22:57:15Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。