論文の概要: POaaS: Minimal-Edit Prompt Optimization as a Service to Lift Accuracy and Cut Hallucinations on On-Device sLLMs
- arxiv url: http://arxiv.org/abs/2603.16045v1
- Date: Tue, 17 Mar 2026 01:05:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.060302
- Title: POaaS: Minimal-Edit Prompt Optimization as a Service to Lift Accuracy and Cut Hallucinations on On-Device sLLMs
- Title(参考訳): POaaS: デバイス上のsLLMの精度を犠牲にしてハロシンをカットするサービスとしての最小編集プロンプト最適化
- Authors: Jungwoo Shim, Dae Won Kim, Sun Wook Kim, Soo Young Kim, Myungcheol Lee, Jae-geun Cha, Hyunhwa Choi,
- Abstract要約: 小型言語モデル(sLLM)はデバイス上でますますデプロイされ、不完全なユーザプロンプトが事実エラーや幻覚を引き起こす。
我々は、各クエリを軽量なスペシャリストにルーティングする最小限のプロンプト最適化層であるPOを提案する。
- 参考スコア(独自算出の注目度): 2.2406645586052925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Small language models (sLLMs) are increasingly deployed on-device, where imperfect user prompts--typos, unclear intent, or missing context--can trigger factual errors and hallucinations. Existing automatic prompt optimization (APO) methods were designed for large cloud LLMs and rely on search that often produces long, structured instructions; when executed under an on-device constraint where the same small model must act as optimizer and solver, these pipelines can waste context and even hurt accuracy. We propose POaaS, a minimal-edit prompt optimization layer that routes each query to lightweight specialists (Cleaner, Paraphraser, Fact-Adder) and merges their outputs under strict drift and length constraints, with a conservative skip policy for well-formed prompts. Under a strict fixed-model setting with Llama-3.2-3B-Instruct and Llama-3.1-8B-Instruct, POaaS improves both task accuracy and factuality while representative APO baselines degrade them, and POaaS recovers up to +7.4% under token deletion and mixup. Overall, per-query conservative optimization is a practical alternative to search-heavy APO for on-device sLLMs.
- Abstract(参考訳): スモールランゲージモデル(sLLM)は、不完全なユーザプロンプト、不明確な意図、あるいはコンテキストの欠如といった、事実上のエラーや幻覚を引き起こすようなデバイス上でのデプロイが増えている。
既存の自動プロンプト最適化(APO)方式は大規模なクラウドLLM向けに設計されており、長い構造化命令をしばしば生成するサーチに依存している。
我々は,各クエリを軽量なスペシャリスト(Cleaner, Paraphraser, Fact-Adder)にルーティングし,厳密なドリフトと長さ制約の下で出力をマージする最小限のプロンプト最適化レイヤであるPOaaSを提案する。
Llama-3.2-3B-インストラクトとLlama-3.1-8B-インストラクトによる厳格な固定モデル設定では、POaaSはタスクの正確性と事実性の両方を改善し、APOベースラインはそれらを分解し、POaaSはトークンの削除と混合の下で+7.4%まで回復する。
全体として、クエリごとの保守的最適化は、デバイス上でのsLLMに対する検索重大APOの実用的な代替手段である。
関連論文リスト
- Towards Self-Robust LLMs: Intrinsic Prompt Noise Resistance via CoIPO [38.36870540583669]
大規模言語モデル(LLM)は、広範囲のタスクで顕著かつ着実にパフォーマンスを改善している。
現実世界のアプリケーションでは、LLMに提供されるユーザープロンプトは、しばしば不完全であり、モデルの応答の質を損なう可能性がある。
本稿では,モデルが生成するラベル整列ロジットとノイズの相違を最小限に抑えるコントラスト学習に基づく逆直接選好最適化(CoIPO)手法を提案する。
論文 参考訳(メタデータ) (2026-02-09T13:24:50Z) - Modular Prompt Optimization: Optimizing Structured Prompts with Section-Local Textual Gradients [0.8604557306886812]
本稿では,プロンプトを固定的なセマンティックセクションで構成される構造化オブジェクトとして扱うスキーマベースのプロンプト最適化フレームワークを提案する。
LLaMA-3 8B-Instruct と Mistral-7B-Instruct をソルバモデルとして用いて, ARC-Challenge と MMLU の2つの推論ベンチマークでMPOを評価した。
論文 参考訳(メタデータ) (2026-01-07T16:20:08Z) - Adaptive Dependency-aware Prompt Optimization Framework for Multi-Step LLM Pipeline [9.013236765328301]
我々は,多段階LLMパイプラインのための適応依存型プロンプト最適化フレームワークであるADOPTを提案する。
ADOPTは、各LCMステップと最終タスク結果の依存関係を明示的にモデル化し、正確なテキスト勾配推定を可能にする。
実世界のデータセットと多様なパイプライン構造の実験は、ADOPTが効果的で堅牢であることを示している。
論文 参考訳(メタデータ) (2025-12-31T15:46:37Z) - PromptTailor: Multi-turn Intent-Aligned Prompt Synthesis for Lightweight LLMs [6.220520502038547]
本稿では,オープンエンドテキストのプロンプトタイラー生成を制御可能なシステムであるPromptTailorを紹介する。
インテントアラインのプロンプト合成により、モデル出力品質を向上させる。
このシステムはLlama3-8Bの量子化モデルであり、軽量のLoRAアダプターで微調整されている。
論文 参考訳(メタデータ) (2025-11-20T22:17:48Z) - Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Rethinking Prompt Optimizers: From Prompt Merits to Optimization [14.01541576309104]
MePOはメリット誘導型プロンプトデータセットでトレーニングされた、メリット誘導型でローカルにデプロイ可能なプロンプトである。
MePOはオンライン最適化を避け、プライバシーの懸念を減らし、明確で解釈可能なメリットを学習することで、大規模な推論モデルと軽量推論モデルの両方に効果的に一般化する。
論文 参考訳(メタデータ) (2025-05-15T03:31:37Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - AdvPrompter: Fast Adaptive Adversarial Prompting for LLMs [51.217126257318924]
大規模言語モデル(LLM)は、不適切または有害なコンテンツの生成につながるジェイルブレイク攻撃に対して脆弱である。
本稿では,AdvPrompter という別の LLM を用いて,人間可読な逆数プロンプトを数秒で生成する手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T22:18:13Z) - Automatic Prompt Optimization with "Gradient Descent" and Beam Search [64.08364384823645]
大きな言語モデル(LLM)は汎用エージェントとして優れたパフォーマンスを示しているが、その能力はプロンプトに大きく依存している。
この問題に対する単純で非パラメトリックな解である自動プロンプト最適化(APO)を提案する。
APOはデータのミニバッチを使用して、現在のプロンプトを批判する自然言語「段階的」を形成する。
次に、勾配の反対の意味方向のプロンプトを編集することで、勾配をプロンプトに「伝播」する。
論文 参考訳(メタデータ) (2023-05-04T15:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。