論文の概要: VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference
- arxiv url: http://arxiv.org/abs/2509.24257v1
- Date: Mon, 29 Sep 2025 04:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.735498
- Title: VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference
- Title(参考訳): VeriLLM: パブリックに検証可能な分散推論のための軽量フレームワーク
- Authors: Ke Wang, Felix Qu, Libin Xia, Zishuo Zhao, Chris Tong, Lynn Ai, Eric Yang,
- Abstract要約: 大規模言語モデル(LLM)のための分散推論のための公開検証プロトコルを提案する。
同一GPUワーカのセット上で両方のロールを多重化する同型推論検証ネットワークを導入する。
我々は形式的なゲーム理論解析を提供し、インセンティブの下では、正直な推論と検証がナッシュ均衡を構成することを証明した。
- 参考スコア(独自算出の注目度): 4.158412539499328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized inference is an appealing paradigm for serving large language models (LLMs), offering strong security, high efficiency, and lower operating costs. Yet the permissionless setting admits no a priori trust in participating nodes, making output verifiability a prerequisite for secure deployment. We present VeriLLM, a publicly verifiable protocol for decentralized LLM inference that (i) achieves security under a one-honest-verifier assumption, (ii) attains near-negligible verification cost (about 1% of the underlying inference) via a lightweight verification algorithm designed explicitly for LLMs, and (iii) enforces honest checking through a peer-prediction mechanism that mitigates lazy verification in naive voting. We further introduce an isomorphic inference-verification network that multiplexes both roles on the same set of GPU workers. This architecture (i) increases GPU utilization and thereby improves end-to-end throughput for both inference and verification, (ii) expands the effective pool of available validators, strengthening robustness and security, and (iii) enforces task indistinguishability at the worker boundary to prevent job-type-conditioned behavior. Finally, we provide a formal game-theoretic analysis and prove that, under our incentives, honest inference and verification constitute a Nash equilibrium, ensuring incentive compatibility against rational adversaries. To our knowledge, this is the first decentralized inference verification protocol with an end-to-end game-theoretic security proof.
- Abstract(参考訳): 分散推論は、大きな言語モデル(LLM)を提供するための魅力的なパラダイムであり、強力なセキュリティ、高い効率、より低い運用コストを提供する。
しかし、無許可設定では、参加ノードに対する優先的な信頼は認められず、出力の妥当性はセキュアなデプロイメントの前提条件となる。
We present VeriLLM, a public verible protocol for decentralized LLM inference that
(i)一品評定の前提でセキュリティを達成する。
(ii) LLMを明示的に設計した軽量な検証アルゴリズムにより、ほぼ無視可能な検証コスト(基礎となる推論の約1%)を得る。
第三に、素早い投票において遅延検証を緩和するピア予測機構を通じて、正直なチェックを実施する。
さらに、同じGPUワーカのセット上で両方のロールを多重化する同型推論検証ネットワークを導入する。
この建築
(i)GPU使用率を高め、推論と検証の両方においてエンドツーエンドのスループットを向上させる。
(二)有効なバリデータのプールを拡大し、堅牢性及びセキュリティを強化し、
三 作業者境界における作業不特定性を強制し、業務形態の動作を防止すること。
最後に,ゲーム理論の形式的分析を行い,本研究のインセンティブの下では,正直な推論と検証がナッシュ均衡を構成し,合理的な敵に対するインセンティブの整合性を確保することを証明する。
我々の知る限り、これはエンドツーエンドのゲーム理論のセキュリティ証明を備えた最初の分散推論検証プロトコルである。
関連論文リスト
- Context Lineage Assurance for Non-Human Identities in Critical Multi-Agent Systems [0.08316523707191924]
本稿では,アタッチメントのみのメルクル木構造に固定された系統検証のための暗号的基盤機構を提案する。
従来のA2Aモデルとは異なり、本手法ではエージェントと外部検証器の両方が暗号的にマルチホップ前駆体を検証できる。
並行して、A2Aエージェントカードを拡張して、明示的な識別認証プリミティブを組み込むことにより、NHI表現の正当性を確認することができる。
論文 参考訳(メタデータ) (2025-09-22T20:59:51Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - ARMOR: Aligning Secure and Safe Large Language Models via Meticulous Reasoning [49.47193675702453]
大規模言語モデル(LLM)は、顕著な生成能力を示している。
LLMは、安全上の制約を回避できる悪意のある命令に弱いままである。
推論に基づく安全アライメントフレームワークARMORを提案する。
論文 参考訳(メタデータ) (2025-07-14T09:05:54Z) - Information Bargaining: Bilateral Commitment in Bayesian Persuasion [60.3761154043329]
長期的説得のための統一的なフレームワークとよく構造化されたソリューションの概念を導入する。
この視点はゲーム構造の共通知識を明確にし、レシーバに匹敵するコミットメント能力を与える。
このフレームワークは、2段階の検証と推論のパラダイムによって検証される。
論文 参考訳(メタデータ) (2025-06-06T08:42:34Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - It Takes Two: A Peer-Prediction Solution for Blockchain Verifier's Dilemma [12.663727952216476]
我々は,分散検証ゲームのための一相ベイズ的真理機構の設計に向けて,ビザンチン・ローバストなピア予測フレームワークを開発する。
我々の研究は、ブロックチェーン、分散AI、および潜在的に分散化されたシステムのセキュリティと堅牢性を高める分散検証プロトコルのためのインセンティブ設計のフレームワークを提供する。
論文 参考訳(メタデータ) (2024-06-03T21:21:17Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [22.078088272837068]
フェデレートラーニング(FL)システムは、モデル中毒やバックドア攻撃などの敵攻撃に対して脆弱である。
本研究では,実用FLシナリオに特化して設計された新しい異常検出手法を提案する。
本手法では,2段階の条件付き検出機構を用いる。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - Quantum Proofs of Deletion for Learning with Errors [91.3755431537592]
完全同型暗号方式として, 完全同型暗号方式を初めて構築する。
我々の主要な技術要素は、量子証明器が古典的検証器に量子状態の形でのLearning with Errors分布からのサンプルが削除されたことを納得させる対話的プロトコルである。
論文 参考訳(メタデータ) (2022-03-03T10:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。