論文の概要: TensorCommitments: A Lightweight Verifiable Inference for Language Models
- arxiv url: http://arxiv.org/abs/2602.12630v1
- Date: Fri, 13 Feb 2026 05:23:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.855139
- Title: TensorCommitments: A Lightweight Verifiable Inference for Language Models
- Title(参考訳): TensorCommitments: 言語モデルに対する軽量検証可能な推論
- Authors: Oguzhan Baser, Elahe Sadeghi, Eric Wang, David Ribeiro Alves, Sam Kazemian, Hong Kang, Sandeep P. Chinchali, Sriram Vishwanath,
- Abstract要約: 大規模言語モデル(LLM)のためのテンソルネイティブな推論手法を提案する。
コミット(TCs)は、推論をコミットメントに結び付ける。
LLaMA2では、TCは0.97%の証明時間と0.12%の検証時間を加味し、検証GPUを必要とする最高の作業に対して最大48%の堅牢性を向上した。
- 参考スコア(独自算出の注目度): 8.140218773902044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most large language models (LLMs) run on external clouds: users send a prompt, pay for inference, and must trust that the remote GPU executes the LLM without any adversarial tampering. We critically ask how to achieve verifiable LLM inference, where a prover (the service) must convince a verifier (the client) that an inference was run correctly without rerunning the LLM. Existing cryptographic works are too slow at the LLM scale, while non-cryptographic ones require a strong verifier GPU. We propose TensorCommitments (TCs), a tensor-native proof-of-inference scheme. TC binds the LLM inference to a commitment, an irreversible tag that breaks under tampering, organized in our multivariate Terkle Trees. For LLaMA2, TC adds only 0.97% prover and 0.12% verifier time over inference while improving robustness to tailored LLM attacks by up to 48% over the best prior work requiring a verifier GPU.
- Abstract(参考訳): ほとんどの大きな言語モデル(LLM)は外部クラウド上で動作します。ユーザはプロンプトを送信し、推論に支払い、リモートGPUが敵のタンパリングなしでLLMを実行することを信頼する必要があります。
そこでは、検証者(サービス)が、LLMを再実行することなく、推論が正しく実行されることを検証者(クライアント)に納得させる必要がある。
既存の暗号処理はLLMスケールでは遅すぎるが、非暗号処理には強力な検証GPUが必要である。
本稿では,テンソル型推論手法であるTensorCommitments (TCs)を提案する。
TC は LLM の推論を,多変数の Terkle Tree で整理された,改ざんの下で壊れる不可逆的なタグであるコミットメントに結び付ける。
LLaMA2では、TCは推論よりも0.97%の証明時間と0.12%の検証時間を加味し、検証GPUを必要とする最高の事前作業に対して最大48%の堅牢性を向上した。
関連論文リスト
- SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs [48.28847964704554]
CoT(Chain-of-Thought)推論により、LLM(Large Language Models)は複雑な推論タスクを解くことができる。
LLMの変更を必要としない連続空間推論のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:52:29Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z) - SpecInfer: Accelerating Generative Large Language Model Serving with Tree-based Speculative Inference and Verification [13.174386920965107]
SpecInferは、木に基づく投機的推測と検証を扱う生成的大規模言語モデル(LLM)を高速化するシステムである。
トークンツリーで表される全ての候補トークンシーケンスの正当性を、新しいツリーベースの並列復号機構を用いてLLMに対して並列に検証する。
論文 参考訳(メタデータ) (2023-05-16T20:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。