論文の概要: Poodle: Seamlessly Scaling Down Large Language Models with Just-in-Time Model Replacement
- arxiv url: http://arxiv.org/abs/2512.05525v1
- Date: Fri, 05 Dec 2025 08:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.959868
- Title: Poodle: Seamlessly Scaling Down Large Language Models with Just-in-Time Model Replacement
- Title(参考訳): Poodle: ジャスト・イン・タイムのモデル置き換えによる大規模言語モデルのスケールアップ
- Authors: Nils Strassenburg, Boris Glavic, Tilmann Rabl,
- Abstract要約: ビジネスは、単純な反復的なタスクを自動化するために、大規模言語モデル(LLM)にますます依存している。
LLMはトレーニング例をほとんど必要とせず、モデル開発に関する専門知識のないユーザによって利用することができる。
我々は、JITR(Just-in-time Model replacement)のビジョンを示し、LLM呼び出しの繰り返しタスクを特定すると、そのモデルが透過的により安価な代替品に置き換えられる。
- 参考スコア(独自算出の注目度): 6.193292107042754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Businesses increasingly rely on large language models (LLMs) to automate simple repetitive tasks instead of developing custom machine learning models. LLMs require few, if any, training examples and can be utilized by users without expertise in model development. However, this comes at the cost of substantially higher resource and energy consumption compared to smaller models, which often achieve similar predictive performance for simple tasks. In this paper, we present our vision for just-in-time model replacement (JITR), where, upon identifying a recurring task in calls to an LLM, the model is replaced transparently with a cheaper alternative that performs well for this specific task. JITR retains the ease of use and low development effort of LLMs, while saving significant cost and energy. We discuss the main challenges in realizing our vision regarding the identification of recurring tasks and the creation of a custom model. Specifically, we argue that model search and transfer learning will play a crucial role in JITR to efficiently identify and fine-tune models for a recurring task. Using our JITR prototype Poodle, we achieve significant savings for exemplary tasks.
- Abstract(参考訳): 企業は、カスタム機械学習モデルを開発する代わりに、単純な反復タスクを自動化するために、大規模言語モデル(LLM)をますます頼りにしている。
LLMはトレーニング例をほとんど必要とせず、モデル開発に関する専門知識のないユーザによって利用することができる。
しかし、これは、単純なタスクで同様の予測性能が得られる小さなモデルに比べて、資源とエネルギー消費が著しく高いコストが伴う。
本稿では, JITR(Just-in-time Model replacement)のビジョンを述べるとともに, LLM呼び出しの繰り返しタスクを識別する際, より安価な代替案を透過的に置き換える。
JITRはLLMの使いやすさと開発労力の低さを保ちながら、大幅なコストとエネルギーを節約している。
本稿では、繰り返しタスクの識別とカスタムモデルの作成に関するビジョンを実現する上での課題について論じる。
具体的には, モデル探索と伝達学習がJITRにおいて重要な役割を担い, 繰り返しタスクに対するモデル同定と微調整を効率的に行うことを論じる。
JITRのプロトタイプであるPoodleを使って、模範的なタスクの大幅な削減を実現しています。
関連論文リスト
- GRAM: A Generative Foundation Reward Model for Reward Generalization [48.63394690265176]
まず,大規模教師なし学習を用いて学習し,教師付き学習により微調整を行う生成報酬モデルを開発した。
このモデルは、応答ランキング、人間のフィードバックからの強化学習、微調整によるタスク適応など、様々なタスクをうまく一般化する。
論文 参考訳(メタデータ) (2025-06-17T04:34:27Z) - Intention-Conditioned Flow Occupancy Models [80.42634994902858]
大規模な事前学習は、今日の機械学習研究のやり方を根本的に変えた。
同じフレームワークを強化学習に適用することは、RLの中核的な課題に対処するための魅力的な方法を提供するので、魅力的です。
生成AIの最近の進歩は、高度に複雑な分布をモデリングするための新しいツールを提供している。
論文 参考訳(メタデータ) (2025-06-10T15:27:46Z) - ModelGPT: Unleashing LLM's Capabilities for Tailored Model Generation [35.160964210941955]
本稿では,ユーザが提供するデータやタスク記述に適したAIモデルを決定・生成するフレームワークであるModelGPTを提案する。
ユーザの要求に応じて、ModelGPTは、以前のパラダイムよりも少なくとも270倍高速に、調整済みのモデルを提供することができる。
論文 参考訳(メタデータ) (2024-02-18T11:24:34Z) - BYOM: Building Your Own Multi-Task Model For Free [69.63765907216442]
BYOM-FFTは完全微調整モデルのマージ用であり、BYOM-LoRAはLoRA微調整モデルのマージ用である。
コンピュータビジョンと自然言語処理タスクの実験により、提案手法は既存のマージ手法よりも大きなマージ率で優れていることが示された。
論文 参考訳(メタデータ) (2023-10-03T08:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。