論文の概要: AEX: Non-Intrusive Multi-Hop Attestation and Provenance for LLM APIs
- arxiv url: http://arxiv.org/abs/2603.14283v1
- Date: Sun, 15 Mar 2026 08:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.721986
- Title: AEX: Non-Intrusive Multi-Hop Attestation and Provenance for LLM APIs
- Title(参考訳): AEX: LLM APIの非侵入的マルチホップ証明と証明
- Authors: Yongjie Guan,
- Abstract要約: AEXはリクエスト、レスポンス、ツールコール、ストリーミング、エラーセマンティクスを保持し、代わりに署名されたトップレベルの認証オブジェクトを追加する。
本稿では,プロトコル設計,脅威モデル,検証状態マシン,セキュリティとプライバシ分析,OpenAI互換のチャット補完プロファイルを提案する。
- 参考スコア(独自算出の注目度): 0.9915938571870905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hosted large language models are increasingly accessed through remote APIs, but the API boundary still offers little direct evidence that a returned output actually corresponds to the client-visible request. Recent audits of shadow APIs show that unofficial or intermediary endpoints can diverge from claimed behavior, while existing approaches such as fingerprinting, model-equality testing, verifiable inference, and TEE attestation either remain inferential or answer different questions. We propose AEX, a non-intrusive attestation extension for existing JSON-based LLM APIs. AEX preserves request, response, tool-calling, streaming, and error semantics, and instead adds a signed top-level attestation object that binds a client-visible request projection to either a complete response object or a committed streaming output. To support realistic deployments, AEX provides explicit request-binding modes, signed request-transform receipts for trusted intermediaries, and source-output / output-transform receipts for trusted output rewriting. For streaming, it separates checkpoint proofs for verified prefixes of an unmodified source stream from complete-output lineage for outputs that have been rewritten, buffered, aggregated, or re-packaged, preventing transformed outputs from being mistaken for source-stream prefixes. AEX therefore makes a deliberately narrow claim: a trusted issuer attests to a specific request-output relation, or to a specific complete-output lineage, at the API boundary. We present the protocol design, threat model, verification state machine, security and privacy analysis, an OpenAI-compatible chat-completions profile, and a reference TypeScript prototype with local conformance tests and microbenchmarks.
- Abstract(参考訳): ホストされた大きな言語モデルは、リモートAPIを通じてアクセスされることが増えているが、APIバウンダリは、返される出力が実際にクライアント可視の要求に対応するという直接的な証拠をほとんど提供していない。
最近のシャドウAPIの監査では、非公式または中間的なエンドポイントは要求された動作から分岐する可能性があるが、フィンガープリント、モデル品質テスト、検証可能な推論、TEE証明といった既存のアプローチは、推論されたままか、異なる質問に答えることができる。
既存のJSONベースのLLM APIの非侵襲的検証拡張であるAEXを提案する。
AEXは、リクエスト、レスポンス、ツールコール、ストリーミング、エラーセマンティクスを保存し、代わりに、クライアント可視の要求プロジェクションを完全なレスポンスオブジェクトまたはコミットされたストリーミング出力にバインドする署名されたトップレベルの検証オブジェクトを追加する。
現実的なデプロイメントをサポートするために、AEXは明示的な要求バインディングモード、信頼できる仲介者のための署名された要求変換レシート、信頼できる出力書き換えのためのソース出力/出力変換レシートを提供する。
ストリーミングでは、修正されていないソースストリームの検証済みプレフィックスのチェックポイント証明と、書き換え、バッファリング、集約、再パッケージされた出力の完全なアウトプットラインを分離し、変換されたアウトプットがソースストリームプレフィックスと間違えることを防止する。
AEXは故意に狭い主張をしている:信頼された発行者は特定の要求-出力関係、または特定の完全出力関係をAPI境界で証明する。
プロトコル設計、脅威モデル、検証状態マシン、セキュリティとプライバシの分析、OpenAI互換のチャット補完プロファイル、およびローカル適合性テストとマイクロベンチマークを備えたTypeScriptプロトタイプを提示する。
関連論文リスト
- A Framework for Testing and Adapting REST APIs as LLM Tools [11.757827071584737]
大きな言語モデル(LLM)は、外部ツールで複雑なタスクを実行する自律エージェントを構築するために、ますます使われています。
現在のベンチマークではこれらの課題を見落としており、エージェント駆動自動化のためのAPI準備性の評価のギャップが残っている。
LLMエージェント用のPythonツールとしてラップされたエンタープライズAPIを体系的に評価するテストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T02:52:08Z) - Test Amplification for REST APIs via Single and Multi-Agent LLM Systems [1.6499388997661122]
既存のREST APIテストスイートを増幅するために,単一エージェントとマルチエージェントのセットアップである大規模言語モデル(LLM)システムについて検討する。
本稿では, テストカバレッジ, バグ検出の有効性, 計算コストやエネルギー使用量など, 様々な側面における2つのアプローチの比較検討を行う。
論文 参考訳(メタデータ) (2025-04-10T20:19:50Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Shh, don't say that! Domain Certification in LLMs [124.61851324874627]
大きな言語モデル(LLM)は狭いドメインで制約されたタスクを実行するためにしばしばデプロイされる。
ドメイン認証は、言語モデルのドメイン外動作を正確に特徴付ける保証である。
次に, 逆境界を証明として提供するVALIDを, 単純かつ効果的なアプローチとして提案する。
論文 参考訳(メタデータ) (2025-02-26T17:13:19Z) - COTS: Connected OpenAPI Test Synthesis for RESTful Applications [0.0]
OpenAPI仕様のための(i)ドメイン固有言語を導入し、(ii)方法論をサポートするツールを導入します。
私たちのツールはCOTSと呼ばれ、(ランダムに)モデルベースのテスト実行を生成し、ソフトウェア欠陥を報告します。
論文 参考訳(メタデータ) (2024-04-30T15:12:31Z) - Factcheck-Bench: Fine-Grained Evaluation Benchmark for Automatic Fact-checkers [121.53749383203792]
本稿では,大規模言語モデル (LLM) 生成応答の事実性に注釈を付けるための総合的なエンドツーエンドソリューションを提案する。
オープンドメインの文書レベルの事実性ベンチマークを,クレーム,文,文書の3段階の粒度で構築する。
予備実験によると、FacTool、FactScore、Perplexityは虚偽の主張を識別するのに苦労している。
論文 参考訳(メタデータ) (2023-11-15T14:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。