論文の概要: Zero-Knowledge Proof Based Verifiable Inference of Models
- arxiv url: http://arxiv.org/abs/2511.19902v1
- Date: Tue, 25 Nov 2025 04:19:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.267895
- Title: Zero-Knowledge Proof Based Verifiable Inference of Models
- Title(参考訳): ゼロ知識証明に基づくモデルの検証可能な推論
- Authors: Yunxiao Wang,
- Abstract要約: モデル内部パラメータを公開せずに深層学習推論を検証できるゼロ知識フレームワークを提案する。
我々のフレームワークは、行列乗算、正規化、ソフトマックス、SiLUを含む線形ニューラルネットワーク層と非線形ニューラルネットワーク層の両方をサポートしている。
このアプローチの実用性を実証するため、DeepSeekモデルをZK-DeepSeekという名前の完全なSNARK検証バージョンに変換する。
- 参考スコア(独自算出の注目度): 3.309825229791722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in artificial intelligence (AI), particularly deep learning, have led to widespread adoption across various applications. Yet, a fundamental challenge persists: how can we verify the correctness of AI model inference when model owners cannot (or will not) reveal their parameters? These parameters represent enormous training costs and valuable intellectual property, making transparent verification difficult. In this paper, we introduce a zero-knowledge framework capable of verifying deep learning inference without exposing model internal parameters. Built on recursively composed zero-knowledge proofs and requiring no trusted setup, our framework supports both linear and nonlinear neural network layers, including matrix multiplication, normalization, softmax, and SiLU. Leveraging the Fiat-Shamir heuristic, we obtain a succinct non-interactive argument of knowledge (zkSNARK) with constant-size proofs. To demonstrate the practicality of our approach, we translate the DeepSeek model into a fully SNARK-verifiable version named ZK-DeepSeek and show experimentally that our framework delivers both efficiency and flexibility in real-world AI verification workloads.
- Abstract(参考訳): 人工知能(AI)の最近の進歩、特にディープラーニングは、様々なアプリケーションで広く採用されている。
モデル所有者がパラメータを公開できない(あるいはしない)場合、AIモデル推論の正しさを検証するにはどうすればよいのか?
これらのパラメータは、膨大なトレーニングコストと貴重な知的財産権を表し、透明な検証を困難にしている。
本稿では,モデル内部パラメータを公開することなく,ディープラーニング推論を検証可能なゼロ知識フレームワークを提案する。
再帰的に構成されたゼロ知識証明に基づいて構築され、信頼された設定を必要としない、我々のフレームワークは、行列乗算、正規化、ソフトマックス、SiLUを含む線形および非線形ニューラルネットワーク層をサポートする。
フィアット・シャミールのヒューリスティックを活用すれば、一定の大きさの証明を持つ簡潔で非インタラクティブな知識の議論(zkSNARK)が得られる。
このアプローチの実用性を実証するために、DeepSeekモデルを完全なSNARK検証バージョンであるZK-DeepSeekに変換し、実世界のAI検証ワークロードにおいて、当社のフレームワークが効率性と柔軟性の両方を提供することを示した。
関連論文リスト
- Beyond single-model XAI: aggregating multi-model explanations for enhanced trustworthiness [43.25173443756643]
本稿では,複数のモデルから抽出した特徴量集約を用いて,ロバスト性の役割について検討する。
予備的な結果は、複数のモデルの予測能力を活用しながら、アプリケーションの信頼性を高める可能性を示している。
論文 参考訳(メタデータ) (2025-10-13T08:55:45Z) - Crossing the Reward Bridge: Expanding RL with Verifiable Rewards Across Diverse Domains [92.36624674516553]
検証可能な報酬付き強化学習(RLVR)は、大規模言語モデル(LLM)の数学的推論と符号化性能の向上に成功している。
本稿では,医学,化学,心理学,経済学,教育など,さまざまな現実世界領域におけるRLVRの有効性と拡張性について検討する。
我々は,2値検証による制限を克服するために,ソフトなモデルに基づく報酬信号を生成する生成的スコアリング手法を利用する。
論文 参考訳(メタデータ) (2025-03-31T08:22:49Z) - DLBacktrace: A Model Agnostic Explainability for any Deep Learning Models [1.747623282473278]
深層学習モデル決定に対する明確な洞察を提供するために設計された,モデルに依存しない手法であるDLBacktraceを紹介する。
本稿では,DLBacktraceの概要を概説し,その性能を既存の解釈可能性手法と比較する。
その結果,DLBacktraceは多種多様なタスクにおけるモデル行動の理解を効果的に促進することを示した。
論文 参考訳(メタデータ) (2024-11-19T16:54:30Z) - Distinguishing the Knowable from the Unknowable with Language Models [15.471748481627143]
地中真理確率の欠如において、与えられた不確実性を解き放つために、より大きなモデルが地中真理の代用として現れるような設定を探索する。
凍結, 事前訓練されたモデルの埋め込みを訓練した小さな線形プローブが, トークンレベルでより大きなモデルがより自信を持つようになる時期を正確に予測することを示した。
我々は,同じタスクにおいて非自明な精度を実現する,完全に教師なしの手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:22:49Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - AI without networks [0.0]
我々は、生成モデリングを取り入れたAIのためのネットワークフリーフレームワークを開発する。
我々は、この枠組みを、民族学、制御理論、数学の3つの異なる分野の例で示す。
また、生成AIによる倫理的法的課題に対処するために、この枠組みに基づいて容易に計算された信用割当手法を提案する。
論文 参考訳(メタデータ) (2021-06-07T05:50:02Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。