論文の概要: PromptWise: Online Learning for Cost-Aware Prompt Assignment in Generative Models
- arxiv url: http://arxiv.org/abs/2505.18901v1
- Date: Sat, 24 May 2025 23:26:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.736217
- Title: PromptWise: Online Learning for Cost-Aware Prompt Assignment in Generative Models
- Title(参考訳): PromptWise: 生成モデルにおけるコスト対応型プロンプトアサインメントのためのオンライン学習
- Authors: Xiaoyan Hu, Lauren Pick, Ho-fung Leung, Farzan Farnia,
- Abstract要約: 本稿では,大規模な言語モデル群に一連のプロンプトを割り当てるオンライン学習フレームワークPromptWiseを紹介する。
PromptWiseはまず、より安価なモデルを戦略的にクエリし、低コストモデルが与えられたプロンプトに適切に対応できない場合にのみ、より高価なオプションに進化する。
結果は、PromptWiseがコストを意識しないベースラインメソッドを一貫して上回っていることを浮き彫りにした。
- 参考スコア(独自算出の注目度): 22.732551029493987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative AI models has provided users with numerous options to address their prompts. When selecting a generative AI model for a given prompt, users should consider not only the performance of the chosen model but also its associated service cost. The principle guiding such consideration is to select the least expensive model among the available satisfactory options. However, existing model-selection approaches typically prioritize performance, overlooking pricing differences between models. In this paper, we introduce PromptWise, an online learning framework designed to assign a sequence of prompts to a group of large language models (LLMs) in a cost-effective manner. PromptWise strategically queries cheaper models first, progressing to more expensive options only if the lower-cost models fail to adequately address a given prompt. Through numerical experiments, we demonstrate PromptWise's effectiveness across various tasks, including puzzles of varying complexity and code generation/translation tasks. The results highlight that PromptWise consistently outperforms cost-unaware baseline methods, emphasizing that directly assigning prompts to the most expensive models can lead to higher costs and potentially lower average performance.
- Abstract(参考訳): 生成AIモデルの急速な進歩は、ユーザにそのプロンプトに対処する多くのオプションを提供してきた。
与えられたプロンプトに対して生成AIモデルを選択する場合、ユーザーは選択したモデルのパフォーマンスだけでなく、関連するサービスコストも考慮すべきである。
このような考慮を導く原則は、利用可能な満足度オプションの中で最低価格のモデルを選択することである。
しかしながら、既存のモデル選択アプローチは、通常、モデル間の価格差を見越して、パフォーマンスを優先する。
本稿では,大規模言語モデル群(LLM)に一連のプロンプトを代入するオンライン学習フレームワークであるPromptWiseを紹介する。
PromptWiseはまず、より安価なモデルを戦略的にクエリし、低コストモデルが与えられたプロンプトに適切に対応できない場合にのみ、より高価なオプションに進化する。
数値実験を通じて,複雑度やコード生成/翻訳タスクのパズルなど,さまざまなタスクにまたがるPromptWiseの有効性を示す。
その結果、PromptWiseはコストを意識しないベースラインメソッドを一貫して上回り、最も高価なモデルに直接プロンプトを割り当てることによってコストが上がり、平均パフォーマンスが低下する可能性があることを強調した。
関連論文リスト
- Self-Rewarding Large Vision-Language Models for Optimizing Prompts in Text-to-Image Generation [55.42794740244581]
本稿では,シンプルなユーザプロンプトをテキスト・ツー・イメージ・モデルに洗練されたプロンプトに変換するための新しいプロンプト最適化フレームワークを提案する。
具体的には、ユーザプロンプトを書き換えるために大きな視覚言語モデル(LVLM)を使用し、同時にLVLMを報酬モデルとして使用し、最適化されたプロンプトによって生成された画像の美学とアライメントをスコアする。
努力的な人間のフィードバックの代わりに、私たちはLVLMの以前の知識を利用して報酬、すなわちAIフィードバックを提供します。
論文 参考訳(メタデータ) (2025-05-22T15:05:07Z) - LightRouter: Towards Efficient LLM Collaboration with Minimal Overhead [19.573553157421774]
Lightは、より大きなプールからLLMの小さなサブセットを体系的に選択、統合するために設計された新しいフレームワークである。
実験によると、光は広く使われているアンサンブルのベースラインと一致し、25%の精度向上を実現している。
本研究は、効率的なLCM選択のための実践的なアプローチを導入し、モデル組み合わせのための最適な戦略に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-05-22T04:46:04Z) - EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - Exploring Task-Level Optimal Prompts for Visual In-Context Learning [20.34945396590862]
本稿では,推論段階におけるプロンプトの探索コストを削減するためのタスクレベルプロンプトを提案する。
提案手法は最適に近いプロンプトを同定し,最小限のコストで最高のVICL性能が得られることを示す。
論文 参考訳(メタデータ) (2025-01-15T14:52:20Z) - Pricing and Competition for Generative AI [3.8677478583601776]
われわれは、新しい生成AIソフトウェアの開発者がどのようにして技術をリリースし、価格を下げるかという課題を探求する。
まず、ユーザコスト効率に関して、特定のタスクに対する2つの異なるモデルの比較を行う。
次に、生成AIソフトウェアの価格問題を、2つの異なる企業間のゲームとしてモデル化する。
論文 参考訳(メタデータ) (2024-11-04T22:52:45Z) - Towards Fundamentally Scalable Model Selection: Asymptotically Fast Update and Selection [40.85209520973634]
理想的なモデル選択スキームは、候補モデルの大きなプール上で2つの操作を効率的にサポートすべきである。
モデル選択に対する従来の解決策は、これらの2つの操作のうちの少なくとも1つに対して高い計算複雑性を必要とする。
モデル埋め込みを実証的に実現したStandardized Embedderを提案する。
論文 参考訳(メタデータ) (2024-06-11T17:57:49Z) - Efficient Prompt Optimization Through the Lens of Best Arm Identification [50.56113809171805]
この作業は、明示的な予算制約の下でプロンプト選択を効率的に行うための、原則化されたフレームワークであるTRIPLEを提供する。
マルチアームバンディット(MAB)における即時最適化と固定予算ベストアーム識別(BAI-FB)の間に確立された新しい接続上に構築されている。
論文 参考訳(メタデータ) (2024-02-15T05:31:13Z) - Modeling Choice via Self-Attention [8.394221523847325]
注意に基づく選択モデルはHalo Multinomial Logit(Halo-MNL)モデルの低最適一般化であることを示す。
また、実データから選択を推定するための最初の現実的な尺度を確立し、既存のモデルの評価を行う。
論文 参考訳(メタデータ) (2023-11-11T11:13:07Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。