論文の概要: ExaRanker: Explanation-Augmented Neural Ranker
- arxiv url: http://arxiv.org/abs/2301.10521v2
- Date: Sat, 3 Jun 2023 17:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 03:26:09.369679
- Title: ExaRanker: Explanation-Augmented Neural Ranker
- Title(参考訳): ExaRanker: Explanation-augmented Neural Ranker
- Authors: Fernando Ferraretto, Thiago Laitz, Roberto Lotufo and Rodrigo Nogueira
- Abstract要約: 本研究は,ニューラルランサーが説明の恩恵を受けることを示す。
我々は、GPT-3.5のようなLCMを用いて、説明付き検索データセットを増強する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
- 参考スコア(独自算出の注目度): 67.4894325619275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown that inducing a large language model (LLM) to generate
explanations prior to outputting an answer is an effective strategy to improve
performance on a wide range of reasoning tasks. In this work, we show that
neural rankers also benefit from explanations. We use LLMs such as GPT-3.5 to
augment retrieval datasets with explanations and train a sequence-to-sequence
ranking model to output a relevance label and an explanation for a given
query-document pair. Our model, dubbed ExaRanker, finetuned on a few thousand
examples with synthetic explanations performs on par with models finetuned on
3x more examples without explanations. Furthermore, the ExaRanker model incurs
no additional computational cost during ranking and allows explanations to be
requested on demand.
- Abstract(参考訳): 近年の研究では,大規模言語モデル(LLM)の導入により,回答を出力する前に説明文を生成することが,幅広い推論タスクのパフォーマンス向上に有効な戦略であることが示されている。
本稿では,神経ランカが説明の恩恵を受けていることを示す。
gpt-3.5 のような llm を使用して,説明付き検索データセットの強化とシーケンス・ツー・シーケンスのランク付けモデルのトレーニングを行い,与えられたクエリ・ドキュメントペアに対して関連ラベルと説明文を出力する。
ExaRankerと呼ばれる私たちのモデルは、数千の例で微調整され、合成説明は、説明なしで3倍の例で微調整されたモデルと同等に実行される。
さらに、exarankerモデルは、ランキング中に追加の計算コストを発生せず、オンデマンドで説明を要求できる。
関連論文リスト
- Show Me How It's Done: The Role of Explanations in Fine-Tuning Language
Models [0.45060992929802207]
言語モデルの性能を向上させるために,説明付き微調整を用いることによる重要な利点を示す。
私たちは、6000万のパラメータしか持たない小さな言語モデルでさえ、このアプローチからかなり恩恵を受けていることに気付きました。
論文 参考訳(メタデータ) (2024-02-12T10:11:50Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Reward Engineering for Generating Semi-structured Explanation [11.49422399721136]
半構造化された説明は、明示的な表現を持つ推論者の暗黙の過程を描いている。
この説明は、特定のクエリで利用可能な情報がどのように利用され、その内部重みから回答を生成するための情報で補足されるかを強調している。
言語モデルの生成能力は近年改善されているが、モデルの真の推論能力を検証する構造的な説明を生成することは依然として課題である。
論文 参考訳(メタデータ) (2023-09-15T12:10:03Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [0.7999703756441758]
グラフニューラルネットワークのための新鮮でフレキシブルなアンテホック説明器 RAGE を提案する。
RAGEは、予測に必要な完全な情報を含む分子サブ構造を効果的に識別することができる。
種々の分子分類タスクに関する実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - Causality for Inherently Explainable Transformers: CAT-XPLAIN [16.85887568521622]
我々は、最近提案されたケースワイズ・ポストホック因果説明法を用いて、既存のトランスフォーマーアーキテクチャを本質的に説明可能にする。
我々のモデルは、与えられたインスタンスの入力空間におけるトップ$k$領域の形で、その決定に寄与する説明を提供する。
論文 参考訳(メタデータ) (2022-06-29T18:11:01Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Teach Me to Explain: A Review of Datasets for Explainable NLP [6.256505195819595]
説明可能なNLP(ExNLP)は、人間の注釈付き説明の収集にますます注力しています。
これらの説明は、予測タスクのパフォーマンスを改善するためのデータ拡張、モデルに予測を説明するための説明を訓練するための損失信号、モデル生成された説明の品質を評価する手段として、下流の3つの方法で使用される。
本稿では,3つの主要な説明クラス(highlights,free-text,structured)を特定し,各型に注釈を付けて文献を整理し,これまでに学んだことを指摘し,将来的にはexnlpデータセットの収集を推奨する。
論文 参考訳(メタデータ) (2021-02-24T04:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。