論文の概要: Internet-augmented language models through few-shot prompting for
open-domain question answering
- arxiv url: http://arxiv.org/abs/2203.05115v1
- Date: Thu, 10 Mar 2022 02:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-12 02:38:35.623237
- Title: Internet-augmented language models through few-shot prompting for
open-domain question answering
- Title(参考訳): オープンドメイン質問応答のための数ショットプロンプトによるインターネット強化言語モデル
- Authors: Angeliki Lazaridou, Elena Gribovskaya, Wojciech Stokowiec, Nikolai
Grigorev
- Abstract要約: 私たちは、大規模な言語モデルによって提供されるユニークないくつかのショット機能を活用して、いくつかの課題を克服しています。
Google Searchを使って、ウェブから返された情報に対して言語モデルを条件付けるために、数発のプロンプトを使用します。
ウェブ上で条件付けされた言語モデルは、オープンドメイン質問応答において、類似またはそれ以上のモデルサイズを持つクローズドブックモデルの性能を上回ることが判明した。
- 参考スコア(独自算出の注目度): 6.573232954655063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we aim to capitalize on the unique few-shot capabilities
offered by large-scale language models to overcome some of their challenges
with respect to grounding to factual and up-to-date information. Motivated by
semi-parametric language models, which ground their decisions in external
retrieved evidence, we use few-shot prompting to learn to condition language
models on information returned from the web using Google Search, a broad and
constantly updated knowledge source. Our approach does not involve fine-tuning
or learning additional parameters, thus making it applicable to any language
model, offering like this a strong baseline. Indeed, we find that language
models conditioned on the web surpass performance of closed-book models of
similar, or even larger, model sizes in open-domain question answering.
Finally, we find that increasing the inference-time compute of models, achieved
via using multiple retrieved evidences to generate multiple answers followed by
a reranking stage, alleviates generally decreased performance of smaller
few-shot language models. All in all, our findings suggest that it might be
beneficial to slow down the race towards the biggest model and instead shift
the attention towards finding more effective ways to use models, including but
not limited to better prompting or increasing inference-time compute.
- Abstract(参考訳): 本研究は,大規模言語モデルによって提供される特異な少数ショット機能を活用して,事実情報や最新情報を基盤として,それらの課題を克服することを目的とする。
半パラメトリック言語モデルによってモチベーションされ、外部から得られた証拠に基づいて決定を下す。我々は、広範囲かつ常に更新される知識ソースであるGoogle Searchを用いて、Webから返される情報に対して言語モデルを条件付けることを学ぶために、数発のプロンプトを使用する。
私たちのアプローチでは、微調整や追加パラメータの学習は含まないので、どんな言語モデルにも適用できます。
実際、ウェブ上で条件付けされた言語モデルは、オープンドメイン質問応答における類似またはそれ以上のモデルサイズを持つクローズドブックモデルの性能を上回ることが判明した。
最後に,複数の抽出されたエビデンスを用いて得られたモデルの推論時間計算を増大させ,複数の回答を生成し,さらに段階的に再評価することで,より小さな数発の言語モデルの性能を低下させる。
全体として、我々の研究結果は、最大のモデルへの競争を減速させ、より効率的なモデル利用方法を見つけることに注意を移すことが有益である可能性を示唆している。
関連論文リスト
- Small Language Models are Good Too: An Empirical Study of Zero-Shot Classification [4.4467858321751015]
異なるアーキテクチャとスコアリング関数を用いて、77Mから40Bパラメータの言語モデルをベンチマークする。
この結果から、小さなモデルはテキストを効果的に分類し、より大きなテキストに匹敵するか、上回っていることが明らかとなった。
この研究は、大きめが常に良いとは限らないという考えを強調し、リソース効率の良い小さなモデルが特定のデータ分類の課題に対して実行可能なソリューションを提供するかもしれないことを示唆している。
論文 参考訳(メタデータ) (2024-04-17T07:10:28Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - On the Analysis of Cross-Lingual Prompt Tuning for Decoder-based
Multilingual Model [49.81429697921861]
多言語自己回帰モデルにおけるパラメータ効率細調整(PEFT)と言語間タスクの相互作用について検討する。
高速チューニングは、微調整よりも低リソース言語の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T00:43:33Z) - Perturbed examples reveal invariances shared by language models [8.04604449335578]
2つのNLPモデルを比較するための新しいフレームワークを提案する。
このフレームワークは、同じおよび異なるアーキテクチャファミリーのモデルに関する実験であり、モデルの変化が言語機能にどのように影響するかについての洞察を提供する。
論文 参考訳(メタデータ) (2023-11-07T17:48:35Z) - Evaluating Large Language Models on Controlled Generation Tasks [92.64781370921486]
本稿では,異なる粒度を持つ文計画ベンチマークを含む,様々なベンチマークを広範囲に分析する。
大規模言語モデルと最先端の微調整された小型モデルを比較した後、大規模言語モデルが後方に落ちたり、比較されたり、より小型モデルの能力を超えたりしたスペクトルを示す。
論文 参考訳(メタデータ) (2023-10-23T03:48:24Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - Reimagining Retrieval Augmented Language Models for Answering Queries [23.373952699385427]
本稿では,大規模言語モデルに対する現実性チェックと,比較対象言語モデル検索の可能性を検証する。
このような言語モデルは半パラメトリックであり、モデルがモデルパラメータと外部データソースからの知識を統合して予測を行う。
論文 参考訳(メタデータ) (2023-06-01T18:08:51Z) - A Multi-dimensional Evaluation of Tokenizer-free Multilingual Pretrained
Models [87.7086269902562]
サブワードベースのモデルは、多くの設定において依然として最も実用的な選択肢であることを示している。
我々は,新しいモデルを設計し,評価する際のこれらの要因を検討するために,トークンフリーな手法の今後の取り組みを奨励する。
論文 参考訳(メタデータ) (2022-10-13T15:47:09Z) - Super-Prompting: Utilizing Model-Independent Contextual Data to Reduce
Data Annotation Required in Visual Commonsense Tasks [3.42658286826597]
我々は,言語モデルとマルチモーダル因果変換器モデルの両方における結果を改善するために,異なるプロンプトベースの微調整手法を解析する。
以上の結果から,モデルに依存しないインシデントベースの微調整により,微調整データセットの35%~40%のみを用いて,同等の精度で達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-25T18:56:55Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。