論文の概要: Allies: Prompting Large Language Model with Beam Search
- arxiv url: http://arxiv.org/abs/2305.14766v3
- Date: Thu, 19 Oct 2023 05:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 20:10:42.526273
- Title: Allies: Prompting Large Language Model with Beam Search
- Title(参考訳): 同盟国:ビームサーチによる大規模言語モデルの提案
- Authors: Hao Sun, Xiao Liu, Yeyun Gong, Yan Zhang, Daxin Jiang, Linjun Yang,
Nan Duan
- Abstract要約: 本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
- 参考スコア(独自算出の注目度): 107.38790111856761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advance of large language models (LLMs), the research field of LLM
applications becomes more and more popular and the idea of constructing
pipelines to accomplish complex tasks by stacking LLM API calls come true.
However, this kind of methods face two limitations: narrow information coverage
and low fault tolerance. In this work, we propose a novel method called ALLIES.
Given an input query, ALLIES leverages LLMs to iteratively generate new queries
related to the original query, enabling an iterative reasoning process. By
iteratively refining and expanding the scope of the original query, ALLIES
captures and utilizes hidden knowledge that may not be directly obtainable
through retrieval. We take zero-shot open-domain question answering (ODQA) as
an application scene and evaluate ALLIES on the widely-used benchmarks, such as
NQ, WebQ and TriviaQA. The experimental results demonstrate that ALLIES
significantly outperforms other zero-shot baselines, indicating its
effectiveness in tackling those challenges. Our code is available in
https://github.com/microsoft/SimXNS/tree/main/ALLIES.
- Abstract(参考訳): 大規模言語モデル (LLMs) の進歩により, LLM アプリケーションの研究分野はますます普及し, LLM API 呼び出しを積み重ねて複雑なタスクをこなすパイプラインの構築が実現している。
しかし、この種の手法は、狭い情報カバレッジと低いフォールトトレランスの2つの制限に直面している。
そこで本研究では,アソシエイトと呼ばれる新しい手法を提案する。
入力クエリが与えられた後、ALLIESはLSMを利用して元のクエリに関連する新しいクエリを反復的に生成し、反復的推論プロセスを可能にする。
元のクエリのスコープを反復的に精錬して拡張することで、アソシエイトは検索によって直接取得できない隠れた知識を捕捉し、活用する。
ゼロショットオープンドメイン質問応答(ODQA)をアプリケーションシーンとして、NQ、WebQ、TriviaQAといった広く使われているベンチマークでALLIESを評価する。
実験の結果、ALLIESは他のゼロショットベースラインよりも大幅に優れており、これらの課題に対処する効果が示されている。
私たちのコードはhttps://github.com/microsoft/SimXNS/tree/main/ALLIESで利用可能です。
関連論文リスト
- SuRe: Summarizing Retrievals using Answer Candidates for Open-domain QA of LLMs [85.54906813106683]
大規模言語モデル(LLM)を用いたオープンドメイン質問応答(ODQA)の簡易かつ効果的なフレームワークを提案する。
SuRe は LLM が与えられた質問に対するより正確な回答を予測するのに役立つ。
様々なODQAベンチマークの実験結果はSuReの優位性を示し、標準的なプロンプトアプローチよりも4.6%、F1スコアが4.0%向上した。
論文 参考訳(メタデータ) (2024-04-17T01:15:54Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - MILL: Mutual Verification with Large Language Models for Zero-Shot Query Expansion [39.24969189479343]
本稿では,大規模言語モデル(LLM)を相互検証に用いるゼロショットクエリ拡張フレームワークを提案する。
提案手法は完全にゼロショットであり,その有効性を示すために3つの公開ベンチマークデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-10-29T16:04:10Z) - Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z) - FreshLLMs: Refreshing Large Language Models with Search Engine
Augmentation [92.43001160060376]
本研究では,現在の世界知識をテストする質問に答える文脈において,大規模言語モデル(LLM)の事実性について検討する。
多様な質問や回答のタイプを含む新しい動的QAベンチマークであるFreshQAを紹介する。
我々は,2モード評価法により,閉じたLLMとオープンソースのLLMの多種多様な配列をベンチマークし,その正しさと幻覚の両面を計測する。
これらの結果に触発されたFreshPromptは、FreshQA上でのLLMの性能を大幅に向上させる単純な数ショットプロンプトである。
論文 参考訳(メタデータ) (2023-10-05T00:04:12Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z) - Querying Large Language Models with SQL [16.383179496709737]
多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
事前訓練されたLarge Language Models (LLMs) の台頭に伴い、大量のテキストコーパスから抽出された情報を保存および使用するための効果的なソリューションが現在存在する。
本稿では,従来のデータベースアーキテクチャに基づくプロトタイプであるGaloisについて紹介する。
論文 参考訳(メタデータ) (2023-04-02T06:58:14Z) - Self-Prompting Large Language Models for Zero-Shot Open-Domain QA [67.08732962244301]
Open-Domain Question Answering (ODQA)は、背景文書を明示的に提供せずに質問に答えることを目的としている。
このタスクは、調整済みの検索リーダーモデルをトレーニングするデータがないゼロショット設定で顕著に困難になる。
本稿では,大規模言語モデルのパラメータに符号化された膨大な知識を明示的に活用するセルフプロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T18:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。