論文の概要: IMMACULATE: A Practical LLM Auditing Framework via Verifiable Computation
- arxiv url: http://arxiv.org/abs/2602.22700v1
- Date: Thu, 26 Feb 2026 07:21:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.574896
- Title: IMMACULATE: A Practical LLM Auditing Framework via Verifiable Computation
- Title(参考訳): IMMACULATE:検証可能な計算による実用的なLLM監査フレームワーク
- Authors: Yanpei Guo, Wenjie Qu, Linyu Wu, Shengfang Zhai, Lionel Z. Wang, Ming Xu, Yue Liu, Binhang Yuan, Dawn Song, Jiaheng Zhang,
- Abstract要約: 経済的なモチベーションのある逸脱を検出するための実践的な監査フレームワークIMMACULATEを提案する。
IMMACULATEは、検証可能な計算を用いて少数のリクエストを選択的に監査し、暗号オーバーヘッドを償却しながら強力な検出保証を達成する。
- 参考スコア(独自算出の注目度): 49.796717294455796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commercial large language models are typically deployed as black-box API services, requiring users to trust providers to execute inference correctly and report token usage honestly. We present IMMACULATE, a practical auditing framework that detects economically motivated deviations-such as model substitution, quantization abuse, and token overbilling-without trusted hardware or access to model internals. IMMACULATE selectively audits a small fraction of requests using verifiable computation, achieving strong detection guarantees while amortizing cryptographic overhead. Experiments on dense and MoE models show that IMMACULATE reliably distinguishes benign and malicious executions with under 1% throughput overhead. Our code is published at https://github.com/guo-yanpei/Immaculate.
- Abstract(参考訳): 商用の大規模言語モデルは一般的にブラックボックスAPIサービスとしてデプロイされるため、ユーザは推論を正しく実行し、トークンの使用を正直に報告する必要がある。
IMMACULATEは,モデル置換や量子化の乱用,トークンのオーバビリングなど,経済的に動機づけられた逸脱を検出する,実用的な監査フレームワークである。
IMMACULATEは、検証可能な計算を用いて少数のリクエストを選択的に監査し、暗号オーバーヘッドを償却しながら強力な検出保証を達成する。
密集モデルとMoEモデルの実験では、IMMACULATEは1%のスループットオーバーヘッドで良性および悪意のある実行を確実に区別している。
私たちのコードはhttps://github.com/guo-yanpei/Immaculate.comで公開されています。
関連論文リスト
- CREDIT: Certified Ownership Verification of Deep Neural Networks Against Model Extraction Attacks [54.04030169323115]
我々は、モデル抽出攻撃(MEA)に対する認証された所有権検証であるCREDITを紹介する。
DNNモデル間の類似性を定量化し、実用的な検証しきい値を提案し、このしきい値に基づいてオーナシップ検証を行うための厳密な理論的保証を提供する。
我々は、さまざまなドメインやタスクにまたがるいくつかの主流データセットに対するアプローチを広範囲に評価し、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2026-02-23T23:36:25Z) - ImpossibleBench: Measuring LLMs' Propensity of Exploiting Test Cases [58.411135609139855]
タスク完了のための「ショートカット」は、大規模言語モデルの信頼性評価と展開に重大なリスクをもたらす。
我々は,LLMエージェントがテストケースを利用するための正当性を測定するベンチマークフレームワークであるImpossibleBenchを紹介する。
実践的なフレームワークとして、ImpossibleBenchは単なる評価ではなく、汎用的なツールである。
論文 参考訳(メタデータ) (2025-10-23T06:58:32Z) - Auditing Pay-Per-Token in Large Language Models [11.795056270534287]
トークンの誤レポートを検出するため,マーチンゲール理論に基づく監査フレームワークを開発した。
当社のフレームワークは,プロバイダの(ミス-)レポートポリシに関わらず,トークンの誤レポートを常に検出することが保証されています。
論文 参考訳(メタデータ) (2025-10-05T17:47:16Z) - Predictive Auditing of Hidden Tokens in LLM APIs via Reasoning Length Estimation [7.928002407828304]
商用のLLMサービスは内部の推論トレースを隠蔽し、生成したトークンごとにユーザを課金する。
PALACEは内部トレースにアクセスせずに、プロンプトと応答のペアから隠れた推論トークン数を推定する。
数学、コーディング、医学、一般的な推論のベンチマークの実験は、PALACEが低い相対誤差と強い予測精度を達成することを示している。
論文 参考訳(メタデータ) (2025-07-29T19:50:55Z) - CoIn: Counting the Invisible Reasoning Tokens in Commercial Opaque LLM APIs [13.31195673556853]
隠れトークンの量と意味的妥当性の両方を検査する検証フレームワークであるCoInを提案する。
実験では、信頼できる第三者監査官としてデプロイされたCoInが、成功率94.7%に達するトークン数インフレーションを効果的に検出できることが示されている。
論文 参考訳(メタデータ) (2025-05-19T23:39:23Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - OpenFactCheck: Building, Benchmarking Customized Fact-Checking Systems and Evaluating the Factuality of Claims and LLMs [59.836774258359945]
OpenFactCheckは、カスタマイズされたファクトチェックシステムを構築するためのフレームワークである。
ユーザーは自動的にファクトチェッカーをカスタマイズし、文書やクレームの事実的正当性を検証できる。
CheckerEVALは、人間の注釈付きデータセットを使用して、自動ファクトチェッカーの検証結果の信頼性を高めるソリューションである。
論文 参考訳(メタデータ) (2024-05-09T07:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。