論文の概要: Neural Bandit Based Optimal LLM Selection for a Pipeline of Tasks
- arxiv url: http://arxiv.org/abs/2508.09958v2
- Date: Sun, 17 Aug 2025 17:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 12:43:44.898234
- Title: Neural Bandit Based Optimal LLM Selection for a Pipeline of Tasks
- Title(参考訳): ニューラルバンドに基づくタスクパイプラインのための最適LCM選択
- Authors: Baran Atalar, Eddie Zhang, Carlee Joe-Wong,
- Abstract要約: 本稿では,各サブタスク上でLLMの成功をオンラインにモデル化するニューラルネットワークをトレーニングするニューラルネットワークのコンテキスト帯域ベースアルゴリズムを提案する。
通信質問応答と診断予測データセットの実験から,提案手法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 11.389019661082415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of large language models (LLMs) for a variety of tasks, there has been a growing interest in strategies that can predict which out of a set of LLMs will yield a successful answer at low cost. This problem promises to become more and more relevant as providers like Microsoft allow users to easily create custom LLM "assistants" specialized to particular types of queries. However, some tasks (i.e., queries) may be too specialized and difficult for a single LLM to handle alone. These applications often benefit from breaking down the task into smaller subtasks, each of which can then be executed by a LLM expected to perform well on that specific subtask. For example, in extracting a diagnosis from medical records, one can first select an LLM to summarize the record, select another to validate the summary, and then select another, possibly different, LLM to extract the diagnosis from the summarized record. Unlike existing LLM selection or routing algorithms, this setting requires that we select a sequence of LLMs, with the output of each LLM feeding into the next and potentially influencing its success. Thus, unlike single LLM selection, the quality of each subtask's output directly affects the inputs, and hence the cost and success rate, of downstream LLMs, creating complex performance dependencies that must be learned and accounted for during selection. We propose a neural contextual bandit-based algorithm that trains neural networks that model LLM success on each subtask in an online manner, thus learning to guide the LLM selections for the different subtasks, even in the absence of historical LLM performance data. Experiments on telecommunications question answering and medical diagnosis prediction datasets illustrate the effectiveness of our proposed approach compared to other LLM selection algorithms.
- Abstract(参考訳): 様々なタスクに対する大規模言語モデル(LLM)の普及に伴い、LLMのどのセットが低コストで成功するかを予測できる戦略への関心が高まっている。
この問題は、Microsoftのようなプロバイダが、ユーザが特定のタイプのクエリに特化したカスタムLLM "アシスト"を簡単に作成できるように、ますます関連性を高めていくことを約束している。
しかし、いくつかのタスク(すなわちクエリ)は、単一のLLMが単独で扱うのが困難でありすぎる。
これらのアプリケーションは、タスクを小さなサブタスクに分割することで恩恵を受けることが多く、それぞれのサブタスクは、その特定のサブタスクでうまく動作することが期待されるLCMによって実行される。
例えば、医療記録から診断を抽出する際、まずLSMを選択して要約し、別のLSMを選択してその要約を検証し、次に別のLSMを選択して要約されたレコードから診断を抽出することができる。
既存のLLM選択アルゴリズムやルーティングアルゴリズムとは異なり、この設定では、各LLMの出力が次のLLMに供給され、その成功に影響を与える可能性がある。
したがって、単一のLCM選択とは異なり、各サブタスクの出力の品質は入力に直接影響を与え、従って下流LSMのコストと成功率に影響を与え、選択中に学習し、考慮しなければならない複雑なパフォーマンス依存を生成する。
そこで我々は,従来のLLM性能データがない場合でも,各サブタスクにおけるLLM成功をオンラインにモデル化するニューラルネットワークをトレーニングし,異なるサブタスクに対するLLM選択のガイドを学習するアルゴリズムを提案する。
通信質問応答と診断予測データセットの実験は、他のLLM選択アルゴリズムと比較して提案手法の有効性を示している。
関連論文リスト
- Agent-based Automated Claim Matching with Instruction-following LLMs [10.59972039391162]
本稿では,まず LLM でプロンプトを生成し,次に LLM でバイナリ分類タスクとしてクレームマッチングを行う2段階パイプラインを提案する。
LLM生成プロンプトは、人為的なプロンプトでSOTAを上回り、より小さなLSMは生成過程において大きなプロンプトと同等に機能することを示した。
本研究は,LCMのクレームマッチングに対する理解に関する知見を明らかにする。
論文 参考訳(メタデータ) (2025-10-27T23:09:35Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Efficient Dynamic Ensembling for Multiple LLM Experts [44.41847678666002]
異なるLLM専門家の強みに対するアンサンブル推論は、多様な入力に対して一貫した満足なパフォーマンスを達成するために重要である。
本研究では,動的入力を前提とした複数のLDMエキスパートの強みを統合するために,DERと呼ばれる効率的な動的アンサンブル推論パラダイムを提案する。
実験により,本手法では,最先端のベースラインに比べて計算資源が少なく,性能が向上することが示された。
論文 参考訳(メタデータ) (2024-12-10T12:05:56Z) - Smoothie: Label Free Language Model Routing [39.88041397482366]
大規模言語モデル(LLM)は、LLM入力が多くの異なるタスクにまたがるアプリケーションでますます使われている。
Smoothieは、ラベル付きデータを必要としない、監督にインスパイアされた弱いルーティング手法である。
SmoothieのLLMの品質スコアは、地上モデルの品質と相関している。
論文 参考訳(メタデータ) (2024-12-06T01:06:37Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Mutual Enhancement of Large and Small Language Models with Cross-Silo
Knowledge Transfer [27.63746419563747]
大規模言語モデル (LLM) には幅広い知識が与えられているが、そのタスク固有の性能は、しばしば準最適である。
タスク固有のデータで微調整 LLM を必要とするが、プライバシー上の懸念からアクセスできない可能性がある。
本研究では,より小さな言語モデル (SLM) でLLMを強化し,クライアント上でプライベートなタスク固有データを用いて学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-10T09:52:32Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。