論文の概要: Enhancing Trust in AI Marketplaces: Evaluating On-Chain Verification of Personalized AI models using zk-SNARKs
- arxiv url: http://arxiv.org/abs/2504.04794v1
- Date: Mon, 07 Apr 2025 07:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:24.439574
- Title: Enhancing Trust in AI Marketplaces: Evaluating On-Chain Verification of Personalized AI models using zk-SNARKs
- Title(参考訳): AIマーケットプレースにおける信頼の強化:zk-SNARKを用いたパーソナライズされたAIモデルのオンチェーン検証の評価
- Authors: Nishant Jagannath, Christopher Wong, Braden Mcgrath, Md Farhad Hossain, Asuquo A. Okon, Abbas Jamalipour, Kumudu S. Munasinghe,
- Abstract要約: 本稿では、分散環境におけるパーソナライズされたAIモデルの検証という課題に対処する。
本稿では,ゼロ知識簡潔な知識の非対話的議論(zk-SNARK)をChainlink分散オラクルと統合する新しいフレームワークを提案する。
この結果から, 検証時間の平均は233.63秒, 検証時間は61.50秒であった。
- 参考スコア(独自算出の注目度): 8.458944388986067
- License:
- Abstract: The rapid advancement of artificial intelligence (AI) has brought about sophisticated models capable of various tasks ranging from image recognition to natural language processing. As these models continue to grow in complexity, ensuring their trustworthiness and transparency becomes critical, particularly in decentralized environments where traditional trust mechanisms are absent. This paper addresses the challenge of verifying personalized AI models in such environments, focusing on their integrity and privacy. We propose a novel framework that integrates zero-knowledge succinct non-interactive arguments of knowledge (zk-SNARKs) with Chainlink decentralized oracles to verify AI model performance claims on blockchain platforms. Our key contribution lies in integrating zk-SNARKs with Chainlink oracles to securely fetch and verify external data to enable trustless verification of AI models on a blockchain. Our approach addresses the limitations of using unverified external data for AI verification on the blockchain while preserving sensitive information of AI models and enhancing transparency. We demonstrate our methodology with a linear regression model predicting Bitcoin prices using on-chain data verified on the Sepolia testnet. Our results indicate the framework's efficacy, with key metrics including proof generation taking an average of 233.63 seconds and verification time of 61.50 seconds. This research paves the way for transparent and trustless verification processes in blockchain-enabled AI ecosystems, addressing key challenges such as model integrity and model privacy protection. The proposed framework, while exemplified with linear regression, is designed for broader applicability across more complex AI models, setting the stage for future advancements in transparent AI verification.
- Abstract(参考訳): 人工知能(AI)の急速な進歩は、画像認識から自然言語処理まで様々なタスクをこなす洗練されたモデルをもたらしている。
これらのモデルが複雑さを増し続ければ、特に従来の信頼メカニズムが欠如している分散環境では、信頼性と透明性の確保が重要になります。
本稿では、このような環境でパーソナライズされたAIモデルを検証することの課題に対処し、その完全性とプライバシに焦点をあてる。
本稿では,ゼロ知識簡潔な知識の非対話的議論(zk-SNARKs)をChainlink分散オーラクルと統合して,ブロックチェーンプラットフォーム上でのAIモデルパフォーマンスクレームの検証を行う,新たなフレームワークを提案する。
私たちの重要な貢献は、ブロックチェーン上のAIモデルの信頼性のない検証を可能にするために、zk-SNARKをChainlinkオーラクルに統合して、外部データを安全にフェッチし、検証することです。
当社のアプローチは,AIモデルの機密情報を保護し,透明性を向上しつつ,ブロックチェーン上でのAI検証に,検証されていない外部データを使用することの制限に対処する。
本手法は,セポリアテストネット上で検証されたオンチェーンデータを用いて,Bitcoin価格を予測する線形回帰モデルを用いて実証する。
この結果から, 検証時間の平均は233.63秒, 検証時間は61.50秒であった。
この研究は、ブロックチェーン対応AIエコシステムにおける透明で信頼性のない検証プロセスの道を開き、モデルの完全性やモデルのプライバシ保護といった重要な課題に対処する。
提案されたフレームワークは、線形回帰で例示されているが、より複雑なAIモデルにまたがる広範な適用性のために設計されており、透明なAI検証における将来の進歩のステージが設定されている。
関連論文リスト
- BotDetect: A Decentralized Federated Learning Framework for Detecting Financial Bots on the EVM Blockchains [3.4636217357968904]
本稿では、仮想マシン(EVM)ベースのブロックチェーン内の金融ボットを検出するために、分散フェデレーション学習(DFL)アプローチを提案する。
提案するフレームワークでは,スマートコントラクトによって編成されたフェデレーション学習を活用して,悪意のあるボット動作を検出する。
実験の結果,我々のDFLフレームワークは,スケーラビリティと堅牢性を維持しつつ高い検出精度を実現していることがわかった。
論文 参考訳(メタデータ) (2025-01-21T13:15:43Z) - SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Proof of Quality: A Costless Paradigm for Trustless Generative AI Model Inference on Blockchains [24.934767209724335]
生成AIモデルは、自然言語や画像タスクにおいて強力で破壊的な能力を示している。
これらのモデルを分散環境で展開することは 依然として困難です
ブロックチェーンアーキテクチャ上に任意の大規模な生成モデルをデプロイ可能にするために,Emphproof of Quality(PoQ)と呼ばれる新たな推論パラダイムを提案する。
論文 参考訳(メタデータ) (2024-05-28T08:00:54Z) - DecTest: A Decentralised Testing Architecture for Improving Data Accuracy of Blockchain Oracle [5.327976961338759]
データ精度の向上を目的とした新しい分散テストアーキテクチャ(DecTest)を導入します。
ノードの監視と検証を強化するために、ブロックチェーンオラクルランダムシークレットテストメカニズムが最初に提案されている。
得られたデータの離散エントロピー値を61.4%削減した。
論文 参考訳(メタデータ) (2024-04-21T05:10:17Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - Trust the Process: Zero-Knowledge Machine Learning to Enhance Trust in
Generative AI Interactions [1.3688201404977818]
特にZKP(Zero-Knowledge Proofs)を使用して、パフォーマンスの公正性と正確性に関する懸念に対処する。
ZKML(Zero-Knowledge Machine Learning)として知られる機械学習モデルにZKPを適用することで、AI生成コンテンツの独立した検証が可能になる。
モデルプライバシを保ちながら出力精度と品質を検証するために,トランスフォーマーのための実用的なZKML実装であるsnarkGPTを導入する。
論文 参考訳(メタデータ) (2024-02-09T14:00:16Z) - Generative AI-enabled Blockchain Networks: Fundamentals, Applications,
and Case Study [73.87110604150315]
Generative Artificial Intelligence(GAI)は、ブロックチェーン技術の課題に対処するための有望なソリューションとして登場した。
本稿では、まずGAI技術を紹介し、そのアプリケーションの概要を説明し、GAIをブロックチェーンに統合するための既存のソリューションについて議論する。
論文 参考訳(メタデータ) (2024-01-28T10:46:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。