論文の概要: Jolt Atlas: Verifiable Inference via Lookup Arguments in Zero Knowledge
- arxiv url: http://arxiv.org/abs/2602.17452v1
- Date: Thu, 19 Feb 2026 15:17:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.124451
- Title: Jolt Atlas: Verifiable Inference via Lookup Arguments in Zero Knowledge
- Title(参考訳): Jolt Atlas: ゼロ知識におけるルックアップ引数による検証可能な推論
- Authors: Wyatt Benno, Alberto Centelles, Antoine Douchet, Khalil Gibran,
- Abstract要約: ゼロ知識機械学習(zkML)フレームワークであるJolt Atlasを紹介し、Joltの証明システムをモデル推論に拡張する。
Jolt Atlas は Jolt のルックアップ中心のアプローチを採用し、それを ONNX テンソル操作に直接適用する。
Jolt Atlasは、特別なハードウェアを使わずにデバイス上で実行できる暗号化検証を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Jolt Atlas, a zero-knowledge machine learning (zkML) framework that extends the Jolt proving system to model inference. Unlike zkVMs (zero-knowledge virtual machines), which emulate CPU instruction execution, Jolt Atlas adapts Jolt's lookup-centric approach and applies it directly to ONNX tensor operations. The ONNX computational model eliminates the need for CPU registers and simplifies memory consistency verification. In addition, ONNX is an open-source, portable format, which makes it easy to share and deploy models across different frameworks, hardware platforms, and runtime environments without requiring framework-specific conversions. Our lookup arguments, which use sumcheck protocol, are well-suited for non-linear functions -- key building blocks in modern ML. We apply optimisations such as neural teleportation to reduce the size of lookup tables while preserving model accuracy, as well as several tensor-level verification optimisations detailed in this paper. We demonstrate that Jolt Atlas can prove model inference in memory-constrained environments -- a prover property commonly referred to as \textit{streaming}. Furthermore, we discuss how Jolt Atlas achieves zero-knowledge through the BlindFold technique, as introduced in Vega. In contrast to existing zkML frameworks, we show practical proving times for classification, embedding, automated reasoning, and small language models. Jolt Atlas enables cryptographic verification that can be run on-device, without specialised hardware. The resulting proofs are succinctly verifiable. This makes Jolt Atlas well-suited for privacy-centric and adversarial environments. In a companion work, we outline various use cases of Jolt Atlas, including how it serves as guardrails in agentic commerce and for trustless AI context (often referred to as \textit{AI memory}).
- Abstract(参考訳): ゼロ知識機械学習(zkML)フレームワークであるJolt Atlasを紹介し、Joltの証明システムをモデル推論に拡張する。
CPU命令の実行をエミュレートするzkVM(ゼロ知識仮想マシン)とは異なり、Jolt AtlasはJoltのルックアップ中心のアプローチを採用し、ONNXテンソル操作に直接適用する。
ONNX計算モデルは、CPUレジスタの必要性を排除し、メモリ整合性検証を単純化する。
さらに、ONNXはオープンソースでポータブルなフォーマットで、フレームワーク固有の変換を必要とせずに、さまざまなフレームワーク、ハードウェアプラットフォーム、ランタイム環境間でモデルを共有およびデプロイすることができる。
sumcheckプロトコルを使用するルックアップ引数は、現代のMLの主要なビルディングブロックである非線形関数に適しています。
本稿では,モデル精度を保ったままのルックアップテーブルのサイズを小さくするために,ニューラルテレポーテーションなどの最適化を適用するとともに,この論文で詳述したテンソルレベルの検証最適化についても述べる。
We demonstrate that Jolt Atlas can proof model inference in memory-constrained environment -- a prover property as common called \textit{streaming}。
さらに,Vegaで導入されたBlindFold技術を用いて,Jolt Atlasがゼロ知識を実現する方法について論じる。
既存のzkMLフレームワークとは対照的に、分類、埋め込み、自動推論、小言語モデルのための実践的な証明時間を示す。
Jolt Atlasは、特別なハードウェアを使わずに、デバイス上で実行できる暗号化検証を可能にする。
結果の証明は簡潔に検証できる。
これにより、Jolt Atlasはプライバシー中心で敵対的な環境に適している。
共同作業では、エージェントコマースにおけるガードレールとしての役割や、信頼できないAIコンテキスト(しばしば「textit{AI memory}」と呼ばれる)など、Jolt Atlasのさまざまなユースケースについて概説する。
関連論文リスト
- VisioFirm: Cross-Platform AI-assisted Annotation Tool for Computer Vision [1.5469452301122175]
COCO-Firmは、AIアシスト自動化によるイメージラベリングの合理化を目的とした、オープンソースのWebアプリケーションである。
Coco-Firmは、最先端のファンデーションモデルとフィルタリングパイプラインとのインターフェースを統合して、人間のループへの取り組みを減らす。
論文 参考訳(メタデータ) (2025-09-04T12:54:32Z) - Franca: Nested Matryoshka Clustering for Scalable Visual Representation Learning [30.590869749117815]
Francaは、最初の完全なオープンソース(データ、コード、重み付け)ビジョン基盤モデルである。
多くの場合、最先端のプロプライエタリモデルのパフォーマンスを上回る。
私たちのコントリビューションは、透明で高性能なビジョンモデルのための新しい標準を確立します。
論文 参考訳(メタデータ) (2025-07-18T17:59:55Z) - AdaVideoRAG: Omni-Contextual Adaptive Retrieval-Augmented Efficient Long Video Understanding [73.60257070465377]
AdaVideoRAGは、軽量なインテント分類器を使用して、クエリ複雑性に基づいた検索に適応する新しいフレームワークである。
我々のフレームワークは、Omni-Knowledge Indexingモジュールを使用して、テキスト(キャプション、ASR、OCR)、視覚的特徴、セマンティックグラフから階層データベースを構築する。
実験では、既存のMLLMにシームレスに統合することで、長時間ビデオ理解のための効率と精度の向上が示されている。
論文 参考訳(メタデータ) (2025-06-16T15:18:15Z) - Clustering is back: Reaching state-of-the-art LiDAR instance segmentation without training [69.2787246878521]
本研究は, セマンティックラベルのみを用いて, 競合するパノプティクスのセグメンテーションを実現できることを示す。
提案手法は,標準ベンチマークにおける最先端の教師付き手法よりも優れている。
完全に説明可能で、学習やパラメータチューニングを必要としない。
論文 参考訳(メタデータ) (2025-03-17T14:12:08Z) - Granite Vision: a lightweight, open-source multimodal model for enterprise Intelligence [88.74800617923083]
視覚機能を備えた軽量な大規模言語モデルであるGranite Visionを紹介した。
我々のモデルは、包括的な命令追従データセットに基づいて訓練されている。
Granite Visionは、ビジュアル文書理解に関連する標準ベンチマークで強力な結果を得る。
論文 参考訳(メタデータ) (2025-02-14T05:36:32Z) - Revisiting Few-Shot Object Detection with Vision-Language Models [49.79495118650838]
我々は、最近の基礎視覚言語モデル(VLM)の文脈で、少数ショットオブジェクト検出(FSOD)のタスクを再考する。
我々は,任意の外部データ上で事前学習された検出器を評価する新しいベンチマークプロトコルであるFoundational FSODを提案する。
CVPR 2024 Foundational FSOD コンペティションについて論じ,コミュニティからの洞察を共有した。
論文 参考訳(メタデータ) (2023-12-22T07:42:00Z) - CLAID: Closing the Loop on AI & Data Collection -- A Cross-Platform
Transparent Computing Middleware Framework for Smart Edge-Cloud and Digital
Biomarker Applications [2.953239144917]
CLAIDは,Android,iOS,WearOS,Linux,Windowsと互換性のある透過型コンピューティングをベースとしたオープンソースフレームワークである。
各種センサからのデータ収集と機械学習モデルの展開のためのモジュールを提供する。
本稿では,デプロイされた機械学習モデルを検証するための新しい手法"ML-Model in the Loop"を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:56:51Z) - Pink: Unveiling the Power of Referential Comprehension for Multi-modal
LLMs [49.88461345825586]
本稿では,MLLMの微細な画像理解能力を高めるための新しい枠組みを提案する。
本稿では,既存のデータセットのアノテーションを活用して,命令チューニングデータセットを低コストで構築する手法を提案する。
本研究では,Qwen-VLよりも5.2%精度が向上し,Kosmos-2の精度が24.7%向上したことを示す。
論文 参考訳(メタデータ) (2023-10-01T05:53:15Z) - Tribuo: Machine Learning with Provenance in Java [0.0]
トレーニング、型安全性、ランタイムチェック、自動記録をひとつのフレームワークに統合するJava MLライブラリであるTribuoを紹介します。
Tribuoのモデルと評価はすべて、トレーニングアルゴリズムとともに、入力データの完全な処理パイプラインを記録している。
論文 参考訳(メタデータ) (2021-10-06T19:10:50Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。