論文の概要: Speeding Up Question Answering Task of Language Models via Inverted
Index
- arxiv url: http://arxiv.org/abs/2210.13578v1
- Date: Mon, 24 Oct 2022 19:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:54:12.457004
- Title: Speeding Up Question Answering Task of Language Models via Inverted
Index
- Title(参考訳): 逆インデックスによる言語モデルの質問応答タスクの高速化
- Authors: Xiang Ji and Yesim Sungu-Eryilmaz and Elaheh Momeni and Reza
Rawassizadeh
- Abstract要約: 本研究では,大規模言語モデルと組み合わされた逆インデックス化機構を活用し,質問応答モデルの効率を向上する。
実験の結果, 平均応答時間は97.44%向上した。
検索範囲の縮小により,逆インデックスを用いて平均BLEUスコアを0.23改善した。
- 参考スコア(独自算出の注目度): 5.980139955638448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language processing applications, such as conversational agents and
their question-answering capabilities, are widely used in the real world.
Despite the wide popularity of large language models (LLMs), few real-world
conversational agents take advantage of LLMs. Extensive resources consumed by
LLMs disable developers from integrating them into end-user applications. In
this study, we leverage an inverted indexing mechanism combined with LLMs to
improve the efficiency of question-answering models for closed-domain
questions. Our experiments show that using the index improves the average
response time by 97.44%. In addition, due to the reduced search scope, the
average BLEU score improved by 0.23 while using the inverted index.
- Abstract(参考訳): 会話エージェントやその質問応答能力といった自然言語処理アプリケーションは、現実世界で広く使われている。
大きな言語モデル(LLM)が広く普及しているにもかかわらず、LLMを利用する現実世界の会話エージェントはほとんどない。
llmsが消費する広範なリソースにより、開発者はエンドユーザアプリケーションに統合できない。
本研究では,LLMと組み合わされた逆インデックス化機構を活用し,クローズドドメイン質問に対する質問応答モデルの効率を向上させる。
この指標を用いて平均応答時間を97.44%向上させる実験を行った。
また,検索範囲の縮小により,逆インデックスを用いた場合の平均bleuスコアは0.23に向上した。
関連論文リスト
- Found in the Middle: How Language Models Use Long Contexts Better via
Plug-and-Play Positional Encoding [78.36702055076456]
本稿では,マルチスケール位置決めについて紹介する。
(Ms-PoE)は、シンプルで効果的なプラグアンドプレイ方式で、キャパシティを向上させる。
LLMはコンテキストの中央に位置する関連情報を扱う。
論文 参考訳(メタデータ) (2024-03-05T04:58:37Z) - Empowering Language Models with Active Inquiry for Deeper Understanding [31.11672018840381]
対話型エンゲージメントを備えた大規模言語モデルを実現するために設計されたLaMAI(Language Model with Active Inquiry)を紹介する。
LaMAIは、アクティブな学習技術を使用して、最も有意義な質問を提起し、動的双方向対話を育む。
様々な複雑なデータセットにわたる実証研究は、LaMAIの有効性を実証している。
論文 参考訳(メタデータ) (2024-02-06T05:24:16Z) - Enhancing Large Language Model Performance To Answer Questions and
Extract Information More Accurately [2.1715455600756646]
大きな言語モデル(LLM)は質問に対する応答を生成する。
それらの効果は、答えの最適でない品質や、質問に対する正確な回答を提供するための失敗によってしばしば妨げられる。
これらの課題に対処するため、モデルを改善するためのフィードバックやサンプルを含む、微調整プロセスが採用されている。
論文 参考訳(メタデータ) (2024-01-27T00:18:07Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - MINT: Evaluating LLMs in Multi-turn Interaction with Tools and Language
Feedback [78.60644407028022]
我々は,大規模言語モデルのマルチターンインタラクションによる課題解決能力を評価するベンチマークであるMINTを紹介する。
LLMは一般的に、ツールと言語フィードバックの恩恵を受けます。
LLMの評価、教師あり指導ファインタニング(SIFT)、人間からのフィードバックからの強化学習(RLHF)は、一般的にマルチターン能力を損なう。
論文 参考訳(メタデータ) (2023-09-19T15:25:42Z) - Connecting Large Language Models with Evolutionary Algorithms Yields
Powerful Prompt Optimizers [70.18534453485849]
EvoPromptは離散的なプロンプト最適化のためのフレームワークである。
進化的アルゴリズム(EA)の概念は、優れた性能と高速収束を示すものである。
人為的なプロンプトと既存の方法で自動プロンプト生成を著しく上回っている。
論文 参考訳(メタデータ) (2023-09-15T16:50:09Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。