論文の概要: PromptBridge: Cross-Model Prompt Transfer for Large Language Models
- arxiv url: http://arxiv.org/abs/2512.01420v1
- Date: Mon, 01 Dec 2025 08:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.766634
- Title: PromptBridge: Cross-Model Prompt Transfer for Large Language Models
- Title(参考訳): PromptBridge: 大規模言語モデルのためのクロスモデルプロンプト転送
- Authors: Yaxuan Wang, Quan Liu, Zhenting Wang, Zichao Li, Wei Wei, Yang Liu, Yujia Bao,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成、数学的推論、エージェントベースの推論における応用の基盤となっている。
あるモデルのために設計されたプロンプトを別のモデルで再利用すると、ターゲットモデルに最適化されたプロンプトよりも大幅にパフォーマンスが低下する。
PromptBridgeはトレーニング不要のフレームワークで、モデルスイッチ下での迅速な有効性を維持する。
- 参考スコア(独自算出の注目度): 28.175276092083735
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) underpin applications in code generation, mathematical reasoning, and agent-based workflows. In practice, systems access LLMs via commercial APIs or open-source deployments, and the model landscape (e.g., GPT, Claude, Llama) evolves rapidly. This rapid evolution forces frequent model switches driven by capability, cost, deployment constraints, and privacy. Yet prompts are highly model-sensitive: reusing a prompt engineered for one model on another often yields substantially worse performance than a prompt optimized for the target model. We term this phenomenon Model Drifting. Through extensive empirical analysis across diverse LLM configurations, we show that model drifting is both common and severe. To address this challenge, we introduce PromptBridge, a training-free framework that preserves prompt effectiveness under model switches, enabling cross-model prompt transfer without costly per-task or per-model re-optimization. PromptBridge requires only a small set of alignment tasks for calibration. It first applies Model-Adaptive Reflective Prompt Evolution (MAP-RPE) to obtain task- and model-specific optimal prompts via iterative reflective refinement and quantitative evaluation. Using the resulting calibrated prompt pairs for the source and target models, PromptBridge learns a cross-model prompt mapping. At test time, i.e., for an unseen task, given a source-model prompt, this mapping directly produces an optimized prompt for the target model. Experiments in single-agent and multi-agent settings show that PromptBridge consistently improves downstream accuracy while reducing migration effort. The code will be available soon.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成、数学的推論、エージェントベースのワークフローのアプリケーションを支える。
実際に、システムは商用APIやオープンソースデプロイメントを通じてLLMにアクセスし、モデルランドスケープ(例えば、GPT、Claude、Llama)は急速に進化します。
この急速な進化は、能力、コスト、デプロイメントの制約、プライバシによって駆動される頻繁なモデルスイッチを強制する。
あるモデルのために設計されたプロンプトを別のモデルで再利用すると、ターゲットモデルに最適化されたプロンプトよりもはるかにパフォーマンスが悪くなります。
この現象をモデルドリフトと呼ぶ。
多様なLCM構成の広範な実験解析を通して,モデルドリフトは一般的かつ重大であることを示す。
この課題に対処するために、PmptBridgeというトレーニング不要のフレームワークを導入し、モデルスイッチ下での迅速な効果を保ち、コストのかかるタスクごとのプロンプト転送やモデルごとの再最適化なしに、クロスモデルのプロンプト転送を可能にする。
PromptBridgeはキャリブレーションのために小さなアライメントタスクだけを必要とする。
まず, モデル適応反射プロンプト進化(MAP-RPE)を用いて, 反復反射法の改良と定量的評価により, タスクおよびモデル固有の最適プロンプトを得る。
ソースとターゲットモデルのキャリブレーションされたプロンプトペアを使用して、PromptBridgeはクロスモデルプロンプトマッピングを学ぶ。
テスト時には、すなわち、ソースモデルプロンプトが与えられた未確認タスクに対して、このマッピングはターゲットモデルに最適化されたプロンプトを直接生成する。
シングルエージェントとマルチエージェント設定の実験では、PmpetBridgeは、マイグレーションの労力を削減しながら、ダウンストリームの精度を一貫して改善している。
コードはまもなく利用可能になる。
関連論文リスト
- Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - OptMerge: Unifying Multimodal LLM Capabilities and Modalities via Model Merging [124.91183814854126]
モデルマージは、複数のエキスパートモデルをひとつのモデルに組み合わせようとしている。
本稿ではMLLMのトレーニングと評価のタスクを明確に分割したモデルマージ研究のベンチマークを紹介する。
モデルマージは、トレーニングデータを必要とせずに改善されたMLLMを構築するための有望な方法であることがわかった。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Prompt2Model: Generating Deployable Models from Natural Language
Instructions [74.19816829003729]
大規模言語モデル(LLM)により、システムビルダーはプロンプトによって有能なNLPシステムを作成することができる。
言い換えれば、LSMは従来の特殊目的のNLPモデルとは逆のステップである。
本稿では,LLMに提供されるプロンプトのように自然言語によるタスク記述を行う汎用手法であるPrompt2Modelを提案する。
論文 参考訳(メタデータ) (2023-08-23T17:28:21Z) - Reducing Retraining by Recycling Parameter-Efficient Prompts [23.6827516021001]
モデル間のリサイクリングが可能であることを示す(最良のセッティングは80.9%のプロンプトのリサイクルに成功し、ベースラインを上回ったプロンプトを生成する)。
モデル間のリサイクルが可能であること(最高の設定で80.9%のプロンプトを再利用でき、ベースラインを上回るプロンプトを発生させる)は示していますが、重要なパフォーマンスのヘッドルームは残っており、リサイクル技術の改善が必要です。
論文 参考訳(メタデータ) (2022-08-10T22:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。