論文の概要: OptiLeak: Efficient Prompt Reconstruction via Reinforcement Learning in Multi-tenant LLM Services
- arxiv url: http://arxiv.org/abs/2602.20595v1
- Date: Tue, 24 Feb 2026 06:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.630576
- Title: OptiLeak: Efficient Prompt Reconstruction via Reinforcement Learning in Multi-tenant LLM Services
- Title(参考訳): OptiLeak:マルチテナントLCMサービスにおける強化学習による効率的なプロンプト再構築
- Authors: Longxiang Wang, Xiang Zheng, Xuhao Zhang, Yao Zhang, Ye Wu, Cong Wang,
- Abstract要約: マルチテナント LLM サービスフレームワークは、効率を高めるために共有キーバリューキャッシュを広く採用している。
これにより、サイドチャネルの脆弱性が生成され、即座に漏洩攻撃が発生する。
我々は,迅速な再構築効率を最大化する強化学習強化フレームワークOptiLeakを提案する。
- 参考スコア(独自算出の注目度): 14.316936569697738
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-tenant LLM serving frameworks widely adopt shared Key-Value caches to enhance efficiency. However, this creates side-channel vulnerabilities enabling prompt leakage attacks. Prior studies identified these attack surfaces yet focused on expanding attack vectors rather than optimizing attack performance, reporting impractically high attack costs that underestimate the true privacy risk. We propose OptiLeak, a reinforcement learning-enhanced framework that maximizes prompt reconstruction efficiency through two-stage fine-tuning. Our key insight is that domain-specific ``hard tokens'' -- terms difficult to predict yet carrying sensitive information -- can be automatically identified via likelihood ranking and used to construct preference pairs for Direct Preference Optimization, eliminating manual annotation. This enables effective preference alignment while avoiding the overfitting issues of extended supervised fine-tuning. Evaluated on three benchmarks spanning medical and financial domains, OptiLeak achieves up to $12.48\times$ reduction in average requests per token compared to baseline approaches, with consistent improvements across model scales from 3B to 14B parameters. Our findings demonstrate that cache-based prompt leakage poses a more severe threat than previously reported, underscoring the need for robust cache isolation in production deployments.
- Abstract(参考訳): マルチテナント LLM サービスフレームワークは、効率を高めるために共有キーバリューキャッシュを広く採用している。
しかし、これによってサイドチャネルの脆弱性が生成され、即座に漏洩攻撃が発生する。
以前の研究では、これらの攻撃面は攻撃性能を最適化するのではなく、攻撃ベクトルの拡大に焦点を当てており、真のプライバシーリスクを過小評価する急激な高い攻撃コストを報告している。
本稿では,2段階ファインチューニングによる迅速な再構築効率を最大化する強化学習強化フレームワークOptiLeakを提案する。
私たちのキーとなる洞察は、ドメイン固有の '`hard tokens'' -- 機密情報の予測が難しい用語 -- が、候補ランキングによって自動的に識別され、手動のアノテーションを排除し、直接参照最適化のための選好ペアを構築するのに使用されるということです。
これにより、教師付き微調整の拡張の過度な問題を回避するとともに、効果的な選好アライメントが可能となる。
医療と金融の領域にまたがる3つのベンチマークから評価すると、OptiLeakは3Bから14Bパラメータまでのモデルスケールで一貫した改善により、トークン毎の平均要求の削減を最大2.48\times$で達成している。
以上の結果から,キャッシュベースのプロンプトリークは以前報告したよりも深刻な脅威となり,運用デプロイメントにおいて堅牢なキャッシュ分離の必要性が強調された。
関連論文リスト
- Towards Sample-Efficient and Stable Reinforcement Learning for LLM-based Recommendation [56.92367609590823]
Long Chain-of-Thought (Long CoT)推論は、Large Language Models (LLMs)において有望であることを示している。
我々はLong CoTが本質的にシーケンシャルなレコメンデーションドメインに不適合であると主張している。
提案するRISER(Reinforced Item Space Exploration framework for Recommendation)を提案する。
論文 参考訳(メタデータ) (2026-01-31T10:02:43Z) - EAGER: Edge-Aligned LLM Defense for Robust, Efficient, and Accurate Cybersecurity Question Answering [10.78145758065258]
EAGERは、パラメータ効率の量子化とドメイン固有の優先順位アライメントを統合し、効率、堅牢性、精度を共同で最適化する。
実験により、EAGERは敵の攻撃成功率を最大7.3倍に下げ、最先端の防御よりもQAの精度を最大55%向上させることが示された。
論文 参考訳(メタデータ) (2025-11-24T06:49:48Z) - Structured Uncertainty guided Clarification for LLM Agents [126.26213027785813]
LLMエージェントは、ツールコール機能を備えた大きな言語モデルを拡張するが、曖昧なユーザ命令は、しばしば誤った呼び出しやタスクの失敗につながる。
本稿では,ツールコールパラメータに対する構造的不確かさの定式化,完全情報の期待値(EVPI)を目標としたPOMDPのモデル化,冗長性防止のためのアスペクトベースコストモデルを提案する。
我々のSAGE-Agentは、この構造化された不確実性を活用し、より優れた効率を達成するために、曖昧なタスクのカバレッジを7~39%増加させ、明確な質問を1.5~2.7$times$に減らした。
論文 参考訳(メタデータ) (2025-11-11T21:50:44Z) - Are My Optimized Prompts Compromised? Exploring Vulnerabilities of LLM-based Optimizers [21.207996237794855]
LLMに基づく即時最適化における毒性リスクの最初の体系的解析について述べる。
システムは、入力されたクエリよりも、操作されたフィードバックに対してかなり脆弱である。
本報告では, フェール・リワードの$Delta$ASR を, 実用性を低下させることなく 0.23 から 0.07 に削減する軽量ハイライトディフェンスを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:28:54Z) - Machine Unlearning Meets Adversarial Robustness via Constrained Interventions on LLMs [0.0]
我々は、機密情報の未学習と脱獄攻撃に対する堅牢性に対処する様々な制約付き最適化の定式化について検討する。
私たちが提案する最も単純なポイントワイド制約ベースの介入は、計算コストの低減を図りながら、最大最小の介入よりも優れたパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2025-10-03T23:32:21Z) - Cost-Aware Contrastive Routing for LLMs [57.30288453580456]
我々は、プロンプトとモデルの両方を共有埋め込み空間にマッピングする軽量フレームワークであるコストスペクトルコントラストルーティング(CSCR)を紹介します。
CSCRはベースラインを一貫して上回り、精度とコストのトレードオフを最大25%改善した。
論文 参考訳(メタデータ) (2025-08-17T20:16:44Z) - ConfPO: Exploiting Policy Model Confidence for Critical Token Selection in Preference Optimization [48.50761200321113]
大型言語モデル(LLM)における嗜好学習手法ConfPOを紹介する。
補助モデルや計算を必要とせずに、トレーニングポリシの信頼性のみに基づいて、優先クリティカルトークンを特定し、最適化する。
AlpacaEval 2 や Arena-Hard などのアライメントベンチマークの実験結果は、ConfPO が一様DAA を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-10T11:54:22Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。