論文の概要: LeanContext: Cost-Efficient Domain-Specific Question Answering Using
LLMs
- arxiv url: http://arxiv.org/abs/2309.00841v1
- Date: Sat, 2 Sep 2023 06:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 00:58:10.972948
- Title: LeanContext: Cost-Efficient Domain-Specific Question Answering Using
LLMs
- Title(参考訳): LeanContext: LLMを使った費用効率の良いドメイン特化質問回答
- Authors: Md Adnan Arefeen, Biplob Debnath, Srimat Chakradhar
- Abstract要約: 質問応答(QA)は大規模言語モデル(LLM)の重要な応用である
本稿では、人間指向の要約からAIモデルフレンドリーな要約へ移行する。
当社のアプローチであるLeanContextは、クエリと密接に一致したコンテキストから、$k$キー文を効率的に抽出します。
- 参考スコア(独自算出の注目度): 1.9468358338146958
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Question-answering (QA) is a significant application of Large Language Models
(LLMs), shaping chatbot capabilities across healthcare, education, and customer
service. However, widespread LLM integration presents a challenge for small
businesses due to the high expenses of LLM API usage. Costs rise rapidly when
domain-specific data (context) is used alongside queries for accurate
domain-specific LLM responses. One option is to summarize the context by using
LLMs and reduce the context. However, this can also filter out useful
information that is necessary to answer some domain-specific queries. In this
paper, we shift from human-oriented summarizers to AI model-friendly summaries.
Our approach, LeanContext, efficiently extracts $k$ key sentences from the
context that are closely aligned with the query. The choice of $k$ is neither
static nor random; we introduce a reinforcement learning technique that
dynamically determines $k$ based on the query and context. The rest of the less
important sentences are reduced using a free open source text reduction method.
We evaluate LeanContext against several recent query-aware and query-unaware
context reduction approaches on prominent datasets (arxiv papers and BBC news
articles). Despite cost reductions of $37.29\%$ to $67.81\%$, LeanContext's
ROUGE-1 score decreases only by $1.41\%$ to $2.65\%$ compared to a baseline
that retains the entire context (no summarization). Additionally, if free
pretrained LLM-based summarizers are used to reduce context (into human
consumable summaries), LeanContext can further modify the reduced context to
enhance the accuracy (ROUGE-1 score) by $13.22\%$ to $24.61\%$.
- Abstract(参考訳): QA(QA)は、大規模言語モデル(LLM)、医療、教育、カスタマーサービスにまたがるチャットボット機能を形作る重要な応用である。
しかし, LLM APIの利用コストが高いため, 中小企業へのLLM統合は困難である。
ドメイン固有のデータ(コンテキスト)が、正確なドメイン固有のLLMレスポンスのクエリと一緒に使用されると、コストは急速に上昇します。
1つの選択肢は、LLMを使用してコンテキストを要約し、コンテキストを減らすことである。
しかし、いくつかのドメイン固有のクエリに答えるために必要な有用な情報をフィルタリングすることもできる。
本稿では、人間指向の要約からAIモデルフレンドリーな要約へ移行する。
われわれのアプローチであるLeanContextは、クエリと密接に一致したコンテキストから$k$キー文を効率的に抽出する。
クエリとコンテキストに基づいて$k$を動的に決定する強化学習手法を導入する。
その他の重要でない文は、無料のオープンソーステキスト削減手法を用いて削減される。
本稿では,近年のクエリアウェアおよびクエリアウェアなコンテキストリダクションアプローチ(arxiv論文とBBCニュース記事)に対して,LeanContextを評価した。
コストは37.29.%から67.81.%に削減されているが、LeanContextのROUGE-1スコアは、コンテキスト全体を保持するベースラインに比べてわずか1.41.%から2.65.%に低下している(要約なし)。
さらに、自由事前訓練されたLCMベースの要約器を使って文脈を減らし(人間の消費可能な要約に)、LeanContextはさらに文脈を修正して精度(ROUGE-1スコア)を$13.22\%から$24.61\%に向上させることができる。
関連論文リスト
- Grounding by Trying: LLMs with Reinforcement Learning-Enhanced Retrieval [55.63711219190506]
大きな言語モデル(LLM)は、しばしば適切な検索クエリのポーズに苦労する。
私たちは$underlineLe$arningを$underlineRe$trieveに$underlineT$rying (LeReT)を導入します。
LeReTは、絶対精度を最大29%向上し、下流ジェネレータの評価を17%向上させることができる。
論文 参考訳(メタデータ) (2024-10-30T17:02:54Z) - QUITO: Accelerating Long-Context Reasoning through Query-Guided Context Compression [37.08536175557748]
本稿では,新しいQuery-gUIded aTtention cOmpression (QUITO)法を提案する。
具体的には,質問に対する文脈の注意分布を計算するためにトリガートークンを用いる。
本研究では,2つの広く利用されているデータセットであるNaturalQuestionsとASQAを用いてQUITOを評価する。
論文 参考訳(メタデータ) (2024-08-01T04:28:38Z) - Refiner: Restructure Retrieval Content Efficiently to Advance Question-Answering Capabilities [30.1331670544648]
大規模言語モデル(LLM)はパラメトリックな知識によって制限され、知識集約的なタスクに幻覚をもたらす。
我々は、RAGの検索後のプロセスで機能するエンドツーエンドの抽出・再構成パラダイムである$textitRefiner$を提案する。
論文 参考訳(メタデータ) (2024-06-17T09:25:10Z) - LLoCO: Learning Long Contexts Offline [63.3458260335454]
長いコンテキストを処理するための新しいアプローチであるLLoCOを提案する。
LLoCOはコンテキスト圧縮とLoRAによるドメイン内パラメータ効率の微調整を通じて、オフラインでコンテキストを学習する。
提案手法は、4kトークンLLaMA2-7Bモデルの有効コンテキストウインドウを拡張し,最大128kトークンを処理する。
論文 参考訳(メタデータ) (2024-04-11T17:57:22Z) - $\infty$Bench: Extending Long Context Evaluation Beyond 100K Tokens [64.08660301017302]
現在、この長期コンテキスト機能を評価するための標準ベンチマークが欠落している。
$infty$Benchは、平均データ長が100Kを超える最初のベンチマークである。
その結果,100K以上のコンテキストを効果的に処理するには,既存の長期的LLMの大幅な進歩が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:30:29Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - BooookScore: A systematic exploration of book-length summarization in the era of LLMs [53.42917858142565]
我々は,識別されたエラータイプを一切含まない要約文の割合を計測する自動測度BooookScoreを開発した。
GPT-4 や 2 のようなクローズドソース LLM は,オープンソースモデルよりも BooookScore の高いサマリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-10-01T20:46:44Z) - You can't pick your neighbors, or can you? When and how to rely on
retrieval in the $k$NN-LM [65.74934004876914]
Retrieval-enhanced Language Model (LM) は、大規模な外部データストアから取得したテキストにそれらの予測を条件付ける。
そのようなアプローチの1つ、$k$NN-LMは、既存のLMの予測を$k$-nearest近くのモデルの出力と補間する。
本研究では,2つの英語モデルデータセットに対するアプローチの有効性を実証的に測定する。
論文 参考訳(メタデータ) (2022-10-28T02:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。