論文の概要: PrivaDE: Privacy-preserving Data Evaluation for Blockchain-based Data Marketplaces
- arxiv url: http://arxiv.org/abs/2510.18109v1
- Date: Mon, 20 Oct 2025 21:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.626419
- Title: PrivaDE: Privacy-preserving Data Evaluation for Blockchain-based Data Marketplaces
- Title(参考訳): PrivaDE: ブロックチェーンベースのデータマーケットプレースのためのプライバシ保護データ評価
- Authors: Wan Ki Wong, Sahel Torkamani, Michele Ciampi, Rik Sarkar,
- Abstract要約: プライバシ保護ユーティリティスコアリングと機械学習のためのデータ選択のための暗号プロトコルであるPrivaDEを提案する。
PrivaDEは悪意のあるセキュリティ保証を強制し、モデルとデータセットの両方に対して強力なプライバシ保護を保証する。
我々の研究は、分散機械学習エコシステムにおける公正で自動化されたデータマーケットプレースの基礎を築いた。
- 参考スコア(独自算出の注目度): 5.747287167518624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating the relevance of data is a critical task for model builders seeking to acquire datasets that enhance model performance. Ideally, such evaluation should allow the model builder to assess the utility of candidate data without exposing proprietary details of the model. At the same time, data providers must be assured that no information about their data - beyond the computed utility score - is disclosed to the model builder. In this paper, we present PrivaDE, a cryptographic protocol for privacy-preserving utility scoring and selection of data for machine learning. While prior works have proposed data evaluation protocols, our approach advances the state of the art through a practical, blockchain-centric design. Leveraging the trustless nature of blockchains, PrivaDE enforces malicious-security guarantees and ensures strong privacy protection for both models and datasets. To achieve efficiency, we integrate several techniques - including model distillation, model splitting, and cut-and-choose zero-knowledge proofs - bringing the runtime to a practical level. Furthermore, we propose a unified utility scoring function that combines empirical loss, predictive entropy, and feature-space diversity, and that can be seamlessly integrated into active-learning workflows. Evaluation shows that PrivaDE performs data evaluation effectively, achieving online runtimes within 15 minutes even for models with millions of parameters. Our work lays the foundation for fair and automated data marketplaces in decentralized machine learning ecosystems.
- Abstract(参考訳): データの妥当性を評価することは、モデルパフォーマンスを高めるデータセットを取得しようとするモデル構築者にとって重要なタスクである。
理想的には、そのような評価により、モデルビルダーはモデル固有の詳細を公開せずに、候補データの有用性を評価できるはずです。
同時に、データプロバイダは、計算済みのユーティリティスコア以外のデータに関する情報がモデルビルダーに開示されることを保証しなければなりません。
本稿では,プライバシ保護ユーティリティのための暗号プロトコルであるPrivaDEについて述べる。
これまでの作業では、データ評価プロトコルが提案されていたが、当社のアプローチでは、実用的なブロックチェーン中心の設計を通じて、最先端の技術を進化させています。
ブロックチェーンの信頼性のない性質を活用して、PrivaDEは悪意のあるセキュリティ保証を強制し、モデルとデータセットの両方に対して強力なプライバシ保護を保証する。
効率を上げるために, モデル蒸留, モデル分割, カット・アンド・チョースゼロ知識証明など, いくつかの手法を統合する。
さらに、経験的損失、予測エントロピー、特徴空間の多様性を組み合わせ、能動的学習ワークフローにシームレスに統合できる統一効用スコアリング関数を提案する。
PrivaDEはデータ評価を効果的に行い、数百万のパラメータを持つモデルであっても15分以内のオンラインランタイムを実現している。
我々の研究は、分散機械学習エコシステムにおける公正で自動化されたデータマーケットプレースの基礎を築いた。
関連論文リスト
- Empirical Privacy Evaluations of Generative and Predictive Machine Learning Models -- A review and challenges for practice [0.3069335774032178]
生成技術を展開する前に、生成した合成データに関連するプライバシーリスクを実証的に評価することが重要である。
本稿では,機械学習に基づく生成および予測モデルにおける経験的プライバシ評価の基礎となる概念と前提について概説する。
論文 参考訳(メタデータ) (2024-11-19T12:19:28Z) - Controllable Synthetic Clinical Note Generation with Privacy Guarantees [7.1366477372157995]
本稿では、PHI(Personal Health Information)を含む「クローン」データセットに対する新しい手法を提案する。
我々のアプローチは、クローン化されたデータセットが患者のプライバシを損なうことなく、元のデータの本質的な特性と有用性を保っていることを保証します。
クローン化されたデータセットでトレーニングされた機械学習モデルの性能を評価するために,ユーティリティテストを実施している。
論文 参考訳(メタデータ) (2024-09-12T07:38:34Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Privacy-preserving Generative Framework Against Membership Inference
Attacks [10.791983671720882]
我々は、メンバーシップ推論攻撃に対するプライバシー保護のための生成フレームワークを設計する。
まず、VAEモデルを通してソースデータを潜時空間にマッピングして潜時符号を取得し、次に潜時符号上でメートル法プライバシーを満たすノイズ処理を行い、最終的にVAEモデルを用いて合成データを再構成する。
実験により、新たに生成した合成データを用いて学習した機械学習モデルは、メンバーシップ推論攻撃に効果的に抵抗でき、高いユーティリティを維持できることを示した。
論文 参考訳(メタデータ) (2022-02-11T06:13:30Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。