論文の概要: Privacy-Preserving Mechanisms Enable Cheap Verifiable Inference of LLMs
- arxiv url: http://arxiv.org/abs/2602.17223v1
- Date: Thu, 19 Feb 2026 10:15:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.912961
- Title: Privacy-Preserving Mechanisms Enable Cheap Verifiable Inference of LLMs
- Title(参考訳): LLMのチープ検証が可能なプライバシ保護機構
- Authors: Arka Pal, Louai Zahran, William Gvozdjak, Akilesh Potti, Micah Goldblum,
- Abstract要約: 大規模言語モデル(LLM)は拡大を続けており、サードパーティホスティングサービスの利用が増加している。
既存の推論検証ツールは通常、ゼロ知識証明(ZKP)のような暗号の手法に依存している。
我々は、私的LLM推論を行う方法を考えると、限界余剰コストで検証された推論の形式を得ることができる新しい知見を開発する。
- 参考スコア(独自算出の注目度): 33.54139088666698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As large language models (LLMs) continue to grow in size, fewer users are able to host and run models locally. This has led to increased use of third-party hosting services. However, in this setting, there is a lack of guarantees on the computation performed by the inference provider. For example, a dishonest provider may replace an expensive large model with a cheaper-to-run weaker model and return the results from the weaker model to the user. Existing tools to verify inference typically rely on methods from cryptography such as zero-knowledge proofs (ZKPs), but these add significant computational overhead, and remain infeasible for use for large models. In this work, we develop a new insight -- that given a method for performing private LLM inference, one can obtain forms of verified inference at marginal extra cost. Specifically, we propose two new protocols which leverage privacy-preserving LLM inference in order to provide guarantees over the inference that was carried out. Our approaches are cheap, requiring the addition of a few extra tokens of computation, and have little to no downstream impact. As the fastest privacy-preserving inference methods are typically faster than ZK methods, the proposed protocols also improve verification runtime. Our work provides novel insights into the connections between privacy and verifiability in LLM inference.
- Abstract(参考訳): 大規模言語モデル(LLM)のサイズが拡大するにつれて、モデルをローカルにホストして実行することが可能なユーザは少なくなる。
これにより、サードパーティホスティングサービスの利用が増加した。
しかし、この設定では、推論プロバイダが実行する計算には保証がない。
例えば、不正直なプロバイダは、コストのかかる大規模モデルをより安価に実行可能な弱いモデルに置き換えて、より弱いモデルから結果をユーザに返すことができる。
既存の推論検証ツールは、ゼロ知識証明(ZKP)のような暗号の手法に頼っているが、これらは計算オーバーヘッドを著しく増加させ、大きなモデルでの使用には有効ではない。
本研究では,私的LLM推論を行う方法を考えると,限界余剰コストで検証された推論の形式を得ることができるという新たな知見が得られた。
具体的には,プライバシ保護型LCM推論を利用した2つの新しいプロトコルを提案する。
私たちのアプローチは安価で、いくつかの余分な計算トークンを追加しなければなりません。
最も高速なプライバシ保存推論手法は、一般的にZK法よりも高速であるので、提案プロトコルは検証ランタイムも改善する。
我々の研究は、LLM推論におけるプライバシーと妥当性の関連に関する新たな洞察を提供する。
関連論文リスト
- Differentially Private and Communication Efficient Large Language Model Split Inference via Stochastic Quantization and Soft Prompt [33.701746954914135]
大規模言語モデル (LLM) は目覚ましい性能を達成し、かなりの研究関心を集めている。
既存のアプローチでは、送信前にトークンの埋め込みを難読化し、ローカルモデルを使ってデノナイズする方法が提案されている。
textbfDifferentially private and communication textbfEfficient textbfLLM split inference。
論文 参考訳(メタデータ) (2026-02-12T03:13:16Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - TOPLOC: A Locality Sensitive Hashing Scheme for Trustless Verifiable Inference [7.103455333148043]
大規模言語モデル(LLM)は非常に有能であることが証明されているが、現在フロンティアモデルへのアクセスは推論プロバイダに依存している。
本研究では,この問題に対処する検証可能な新しい手法であるTOPLOCを提案する。
論文 参考訳(メタデータ) (2025-01-27T12:46:45Z) - SVIP: Towards Verifiable Inference of Open-source Large Language Models [33.910670775972335]
本稿では,秘密ベースで検証可能なLarge Language Models推論プロトコルであるSVIPを紹介する。
我々のプロトコルは、LLMから生成されたテキストと処理された隠された表現の両方を返さなければならない。
SVIPは5%未満の偽陰性率と3%未満の偽陰性率を達成し、検証のプロンプトクエリ毎に0.01秒未満である。
論文 参考訳(メタデータ) (2024-10-29T17:52:45Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Compress, Then Prompt: Improving Accuracy-Efficiency Trade-off of LLM
Inference with Transferable Prompt [96.24800696597707]
圧縮モデルにより,このトレードオフを最適化する新たな視点を導入する。
本稿では,圧縮されたモデルを学習プロセスに公開するソフトプロンプト学習法を提案する。
我々のソフトプロンプト戦略は8x圧縮LLaMA-7Bモデルの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-17T20:45:13Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。