論文の概要: Cache & Distil: Optimising API Calls to Large Language Models
- arxiv url: http://arxiv.org/abs/2310.13561v1
- Date: Fri, 20 Oct 2023 15:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 22:25:05.051469
- Title: Cache & Distil: Optimising API Calls to Large Language Models
- Title(参考訳): cache & distil: 大きな言語モデルへのapi呼び出しの最適化
- Authors: Guillem Ram\'irez and Matthias Lindemann and Alexandra Birch and Ivan
Titov
- Abstract要約: ジェネレーティブAIツールの大規模デプロイは、ユーザクエリをフルフィルするために、LLM(Large Language Model)に対する高価なAPI呼び出しに依存することが多い。
これらの呼び出しの頻度を縮めるために、より小さな言語モデル(学生)を用いることができる。
この学生は、ユーザー要求の増加に独立して対処する能力が徐々に向上する。
- 参考スコア(独自算出の注目度): 82.32065572907125
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large-scale deployment of generative AI tools often depends on costly API
calls to a Large Language Model (LLM) to fulfil user queries. To curtail the
frequency of these calls, one can employ a smaller language model -- a student
-- which is continuously trained on the responses of the LLM. This student
gradually gains proficiency in independently handling an increasing number of
user requests, a process we term neural caching. The crucial element in neural
caching is a policy that decides which requests should be processed by the
student alone and which should be redirected to the LLM, subsequently aiding
the student's learning. In this study, we focus on classification tasks, and we
consider a range of classic active learning-based selection criteria as the
policy. Our experiments suggest that Margin Sampling and Query by Committee
bring consistent benefits across tasks and budgets.
- Abstract(参考訳): ジェネレーティブAIツールの大規模デプロイは、ユーザクエリをフルフィルするために、LLM(Large Language Model)に対する高価なAPI呼び出しに依存することが多い。
これらの呼び出しの頻度を縮めるために、LLMのレスポンスに基づいて継続的にトレーニングされる小さな言語モデル(学生)を使用することができる。
この学生は徐々に、ユーザリクエストの増加を独立して処理する能力を得ています。
ニューラルキャッシングにおける重要な要素は、どの要求を学生単独で処理し、どの要求をLLMにリダイレクトするかを決定し、その後、学生の学習を支援するポリシーである。
本研究では,分類課題に焦点をあて,古典的な能動的学習に基づく選択基準を政策として検討する。
我々の実験は、Margin SamplingとQuery by Committeeがタスクと予算に一貫した利益をもたらすことを示唆している。
関連論文リスト
- LLMs can learn self-restraint through iterative self-reflection [57.26854891567574]
大規模言語モデル(LLM)は、特定のトピックに関連する知識と不確実性に基づいて、その振る舞いを動的に適応できなければならない。
この適応的行動は、私たちが自己規制と呼ぶもので、教えるのは簡単ではない。
モデルが信頼している場合にのみ応答を生成できるようにするユーティリティ関数を考案する。
論文 参考訳(メタデータ) (2024-05-15T13:35:43Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Dissecting Language Models: Machine Unlearning via Selective Pruning [0.7373617024876725]
本稿では,大規模言語モデル(LLM)に特化して設計された機械学習手法を提案する。
我々は,LLMの選択的プルーニング法を導入し,ネットワーク全体の性能と比較して,標的能力に対するニューロンの重要性から神経細胞を除去する。
LLMのフィードフォワードニューロンとアテンションニューロンはどちらも専門的であり、特定のタスクにおいては、特定のニューロンは他のニューロンよりも重要である。
論文 参考訳(メタデータ) (2024-03-02T17:10:44Z) - Batch Active Learning of Reward Functions from Human Preferences [33.39413552270375]
嗜好に基づく学習は、ユーザが好みの質問をすることで、信頼できるラベル付けを可能にする。
アクティブクエリ手法は、より情報性の高いデータを生成するために、好みに基づく学習で一般的に使用される。
我々は,データサンプルを極力少なくして,報酬関数の効率的な学習を可能にする,新しいアルゴリズムのセットを開発した。
論文 参考訳(メタデータ) (2024-02-24T08:07:48Z) - Learning to Learn in Interactive Constraint Acquisition [7.741303298648302]
制約獲得(CA:Constraint Acquisition)では、モデルを自動的に学習することでユーザを支援することが目標である。
アクティブCAでは、クエリを対話的にユーザにポストすることでこれを行う。
本稿では、確率論的分類モデルを用いて対話型CAを誘導し、より有望なクエリを生成することを提案する。
論文 参考訳(メタデータ) (2023-12-17T19:12:33Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Active metric learning and classification using similarity queries [21.589707834542338]
本稿では、キーコンポーネントが類似性を反映したデータの表現を学習している問題に対して、新しい統合クエリフレームワークを適用することができることを示す。
提案手法の有効性を,アクティブなメトリック学習とアクティブな分類という2つの課題で実証する。
論文 参考訳(メタデータ) (2022-02-04T03:34:29Z) - Sequential Search with Off-Policy Reinforcement Learning [48.88165680363482]
本稿では,RNN学習フレームワークとアテンションモデルからなる,スケーラブルなハイブリッド学習モデルを提案する。
新たな最適化のステップとして、1つのRNNパスに複数の短いユーザシーケンスをトレーニングバッチ内に収める。
また、マルチセッションパーソナライズされた検索ランキングにおける非政治強化学習の利用についても検討する。
論文 参考訳(メタデータ) (2022-02-01T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。