論文の概要: LeanContext: Cost-Efficient Domain-Specific Question Answering Using
LLMs
- arxiv url: http://arxiv.org/abs/2309.00841v1
- Date: Sat, 2 Sep 2023 06:33:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 00:58:10.972948
- Title: LeanContext: Cost-Efficient Domain-Specific Question Answering Using
LLMs
- Title(参考訳): LeanContext: LLMを使った費用効率の良いドメイン特化質問回答
- Authors: Md Adnan Arefeen, Biplob Debnath, Srimat Chakradhar
- Abstract要約: 質問応答(QA)は大規模言語モデル(LLM)の重要な応用である
本稿では、人間指向の要約からAIモデルフレンドリーな要約へ移行する。
当社のアプローチであるLeanContextは、クエリと密接に一致したコンテキストから、$k$キー文を効率的に抽出します。
- 参考スコア(独自算出の注目度): 1.9468358338146958
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Question-answering (QA) is a significant application of Large Language Models
(LLMs), shaping chatbot capabilities across healthcare, education, and customer
service. However, widespread LLM integration presents a challenge for small
businesses due to the high expenses of LLM API usage. Costs rise rapidly when
domain-specific data (context) is used alongside queries for accurate
domain-specific LLM responses. One option is to summarize the context by using
LLMs and reduce the context. However, this can also filter out useful
information that is necessary to answer some domain-specific queries. In this
paper, we shift from human-oriented summarizers to AI model-friendly summaries.
Our approach, LeanContext, efficiently extracts $k$ key sentences from the
context that are closely aligned with the query. The choice of $k$ is neither
static nor random; we introduce a reinforcement learning technique that
dynamically determines $k$ based on the query and context. The rest of the less
important sentences are reduced using a free open source text reduction method.
We evaluate LeanContext against several recent query-aware and query-unaware
context reduction approaches on prominent datasets (arxiv papers and BBC news
articles). Despite cost reductions of $37.29\%$ to $67.81\%$, LeanContext's
ROUGE-1 score decreases only by $1.41\%$ to $2.65\%$ compared to a baseline
that retains the entire context (no summarization). Additionally, if free
pretrained LLM-based summarizers are used to reduce context (into human
consumable summaries), LeanContext can further modify the reduced context to
enhance the accuracy (ROUGE-1 score) by $13.22\%$ to $24.61\%$.
- Abstract(参考訳): QA(QA)は、大規模言語モデル(LLM)、医療、教育、カスタマーサービスにまたがるチャットボット機能を形作る重要な応用である。
しかし, LLM APIの利用コストが高いため, 中小企業へのLLM統合は困難である。
ドメイン固有のデータ(コンテキスト)が、正確なドメイン固有のLLMレスポンスのクエリと一緒に使用されると、コストは急速に上昇します。
1つの選択肢は、LLMを使用してコンテキストを要約し、コンテキストを減らすことである。
しかし、いくつかのドメイン固有のクエリに答えるために必要な有用な情報をフィルタリングすることもできる。
本稿では、人間指向の要約からAIモデルフレンドリーな要約へ移行する。
われわれのアプローチであるLeanContextは、クエリと密接に一致したコンテキストから$k$キー文を効率的に抽出する。
クエリとコンテキストに基づいて$k$を動的に決定する強化学習手法を導入する。
その他の重要でない文は、無料のオープンソーステキスト削減手法を用いて削減される。
本稿では,近年のクエリアウェアおよびクエリアウェアなコンテキストリダクションアプローチ(arxiv論文とBBCニュース記事)に対して,LeanContextを評価した。
コストは37.29.%から67.81.%に削減されているが、LeanContextのROUGE-1スコアは、コンテキスト全体を保持するベースラインに比べてわずか1.41.%から2.65.%に低下している(要約なし)。
さらに、自由事前訓練されたLCMベースの要約器を使って文脈を減らし(人間の消費可能な要約に)、LeanContextはさらに文脈を修正して精度(ROUGE-1スコア)を$13.22\%から$24.61\%に向上させることができる。
関連論文リスト
- LLoCO: Learning Long Contexts Offline [63.3458260335454]
LLoCOは,LoRAを用いた文脈圧縮,検索,パラメータ効率の微調整を組み合わせた手法である。
我々は,LLoCOの長文質問応答データセットに対するアプローチを検証し,LLoCOが文脈内学習を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-11T17:57:22Z) - Optimizing LLM Queries in Relational Workloads [58.254894049950366]
本稿では,LLMをリレーショナルクエリ内で実行する解析処理に対して,LLM(Large Language Models)推論を最適化する方法を示す。
私たちはこれらの最適化をApache Sparkで実装し、vLLMをバックエンドとして提供しています。
実データセット上の多様なLLMベースのクエリのベンチマークで、エンドツーエンドのレイテンシを最大4.4倍改善する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z) - $\infty$Bench: Extending Long Context Evaluation Beyond 100K Tokens [64.08660301017302]
現在、この長期コンテキスト機能を評価するための標準ベンチマークが欠落している。
$infty$Benchは、平均データ長が100Kを超える最初のベンチマークである。
その結果,100K以上のコンテキストを効果的に処理するには,既存の長期的LLMの大幅な進歩が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:30:29Z) - Blinded by Generated Contexts: How Language Models Merge Generated and Retrieved Contexts for Open-Domain QA? [45.233517779029334]
本稿では,Large Language Models (LLM) が生成および検索コンテキストをどのように統合するかを検討する。
実験では、誤った情報を提供する場合でも、生成されたコンテキストを優先する複数のLSMにおいて、重大なバイアスが示される。
論文 参考訳(メタデータ) (2024-01-22T12:54:04Z) - BooookScore: A systematic exploration of book-length summarization in the era of LLMs [53.42917858142565]
我々は,識別されたエラータイプを一切含まない要約文の割合を計測する自動測度BooookScoreを開発した。
GPT-4 や 2 のようなクローズドソース LLM は,オープンソースモデルよりも BooookScore の高いサマリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-10-01T20:46:44Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - You can't pick your neighbors, or can you? When and how to rely on
retrieval in the $k$NN-LM [65.74934004876914]
Retrieval-enhanced Language Model (LM) は、大規模な外部データストアから取得したテキストにそれらの予測を条件付ける。
そのようなアプローチの1つ、$k$NN-LMは、既存のLMの予測を$k$-nearest近くのモデルの出力と補間する。
本研究では,2つの英語モデルデータセットに対するアプローチの有効性を実証的に測定する。
論文 参考訳(メタデータ) (2022-10-28T02:57:40Z) - Active Learning for Contextual Search with Binary Feedbacks [2.6424064030995957]
第一価格オークションなどの応用によって動機付けられた文脈探索における学習問題について検討する。
本稿では,三分探索手法とマージンに基づく能動学習手法を併用した三分探索手法を提案する。
論文 参考訳(メタデータ) (2021-10-03T19:05:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。