論文の概要: JSTprove: Pioneering Verifiable AI for a Trustless Future
- arxiv url: http://arxiv.org/abs/2510.21024v1
- Date: Thu, 23 Oct 2025 22:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.331625
- Title: JSTprove: Pioneering Verifiable AI for a Trustless Future
- Title(参考訳): JSTprove:信頼できない未来のための検証可能なAIのパイオニア化
- Authors: Jonathan Gold, Tristan Freiberg, Haruna Isah, Shirin Shahabi,
- Abstract要約: 我々は、AI推論の証明を生成し検証するための特殊なzkMLツールキットであるJSTproveを紹介する。
我々は、コミュニティのレビューと拡張を促進するために、JSTproveの設計、革新、実世界のユースケース、および青写真とツールを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The integration of machine learning (ML) systems into critical industries such as healthcare, finance, and cybersecurity has transformed decision-making processes, but it also brings new challenges around trust, security, and accountability. As AI systems become more ubiquitous, ensuring the transparency and correctness of AI-driven decisions is crucial, especially when they have direct consequences on privacy, security, or fairness. Verifiable AI, powered by Zero-Knowledge Machine Learning (zkML), offers a robust solution to these challenges. zkML enables the verification of AI model inferences without exposing sensitive data, providing an essential layer of trust and privacy. However, traditional zkML systems typically require deep cryptographic expertise, placing them beyond the reach of most ML engineers. In this paper, we introduce JSTprove, a specialized zkML toolkit, built on Polyhedra Network's Expander backend, to enable AI developers and ML engineers to generate and verify proofs of AI inference. JSTprove provides an end-to-end verifiable AI inference pipeline that hides cryptographic complexity behind a simple command-line interface while exposing auditable artifacts for reproducibility. We present the design, innovations, and real-world use cases of JSTprove as well as our blueprints and tooling to encourage community review and extension. JSTprove therefore serves both as a usable zkML product for current engineering needs and as a reproducible foundation for future research and production deployments of verifiable AI.
- Abstract(参考訳): マシンラーニング(ML)システムの医療、金融、サイバーセキュリティといった重要な産業への統合は意思決定プロセスを変える一方で、信頼、セキュリティ、説明責任に関する新たな課題をもたらしている。
AIシステムがよりユビキタスになるにつれて、特にプライバシやセキュリティ、公正性に直接的な影響がある場合、AI駆動による決定の透明性と正しさを保証することが重要です。
Zero-Knowledge Machine Learning (zkML)を活用した検証AIは、これらの課題に対する堅牢なソリューションを提供する。
zkMLは、機密データを公開せずにAIモデル推論の検証を可能にし、信頼とプライバシの重要なレイヤを提供する。
しかし、従来のzkMLシステムでは、ほとんどのMLエンジニアのリーチを超越した、深層暗号の専門知識を必要とする。
本稿では,Polyhedra NetworkのExpanderバックエンド上に構築された特殊なzkMLツールキットであるJSTproveを紹介する。
JSTproveはエンドツーエンドで検証可能なAI推論パイプラインを提供する。これは単純なコマンドラインインターフェースの裏側に暗号の複雑さを隠すと同時に、再現性のための監査可能なアーティファクトを公開する。
我々は、コミュニティのレビューと拡張を促進するために、JSTproveの設計、革新、実世界のユースケース、および青写真とツールを紹介します。
したがってJSTproveは、現在のエンジニアリングニーズに対して利用可能なzkML製品として、また、検証可能なAIの将来の研究および運用展開のための再現可能な基盤として機能する。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - LLMpatronous: Harnessing the Power of LLMs For Vulnerability Detection [0.0]
脆弱性検出のための大規模言語モデル(LLM)には、ユニークな課題がある。
脆弱性検出に機械学習モデルを使用した以前の試みは、効果がないことが証明されている。
我々は、これらの制限を緩和することに焦点を当てた、堅牢なAI駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-25T15:30:40Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Trust the Process: Zero-Knowledge Machine Learning to Enhance Trust in
Generative AI Interactions [1.3688201404977818]
特にZKP(Zero-Knowledge Proofs)を使用して、パフォーマンスの公正性と正確性に関する懸念に対処する。
ZKML(Zero-Knowledge Machine Learning)として知られる機械学習モデルにZKPを適用することで、AI生成コンテンツの独立した検証が可能になる。
モデルプライバシを保ちながら出力精度と品質を検証するために,トランスフォーマーのための実用的なZKML実装であるsnarkGPTを導入する。
論文 参考訳(メタデータ) (2024-02-09T14:00:16Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - HuntGPT: Integrating Machine Learning-Based Anomaly Detection and Explainable AI with Large Language Models (LLMs) [0.09208007322096533]
我々はランダムフォレスト分類器を応用した特殊な侵入検知ダッシュボードであるHuntGPTを提案する。
この論文は、Certified Information Security Manager (CISM) Practice Examsを通じて評価された、システムのアーキテクチャ、コンポーネント、技術的正確性について論じている。
その結果、LLMによってサポートされ、XAIと統合された会話エージェントは、侵入検出において堅牢で説明可能な、実行可能なAIソリューションを提供することを示した。
論文 参考訳(メタデータ) (2023-09-27T20:58:13Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z) - Quality Management of Machine Learning Systems [0.0]
機械学習(ML)技術の大きな進歩により、人工知能(AI)は私たちの日常生活の一部になっています。
ビジネス/ミッションクリティカルなシステムでは、AIアプリケーションの信頼性と保守性に関する深刻な懸念が残っている。
本稿では,MLアプリケーションのための総合的な品質管理フレームワークの展望について述べる。
論文 参考訳(メタデータ) (2020-06-16T21:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。