論文の概要: Private Map-Secure Reduce: Infrastructure for Efficient AI Data Markets
- arxiv url: http://arxiv.org/abs/2511.02055v1
- Date: Mon, 03 Nov 2025 20:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.6816
- Title: Private Map-Secure Reduce: Infrastructure for Efficient AI Data Markets
- Title(参考訳): プライベートなマップセキュリティの削減 - 効率的なAIデータ市場のためのインフラストラクチャ
- Authors: Sameer Wagh, Kenneth Stibler, Shubham Gupta, Lacey Strahm, Irina Bejan, Jiahao Chen, Dave Buckley, Ruchi Bhatia, Jack Bandy, Aayush Agarwal, Andrew Trask,
- Abstract要約: データ経済を変革するネットワークネイティブパラダイムであるPrivate Map-Secure Reduce(PMSR)を導入する。
PMSRは計算をデータに移し、検証可能なプライバシ、効率的な価格発見、インセンティブアライメントを保証する。
- 参考スコア(独自算出の注目度): 13.627919466480895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The modern AI data economy centralizes power, limits innovation, and misallocates value by extracting data without control, privacy, or fair compensation. We introduce Private Map-Secure Reduce (PMSR), a network-native paradigm that transforms data economics from extractive to participatory through cryptographically enforced markets. Extending MapReduce to decentralized settings, PMSR enables computation to move to the data, ensuring verifiable privacy, efficient price discovery, and incentive alignment. Demonstrations include large-scale recommender audits, privacy-preserving LLM ensembling (87.5\% MMLU accuracy across six models), and distributed analytics over hundreds of nodes. PMSR establishes a scalable, equitable, and privacy-guaranteed foundation for the next generation of AI data markets.
- Abstract(参考訳): 現代のAIデータエコノミーは、コントロール、プライバシ、公正な補償なしにデータを抽出することで、パワーを集中化し、イノベーションを制限し、価値を誤った場所に置く。
データ経済を抽出的から参加的へと、暗号的に強制された市場へと変換するネットワークネイティブパラダイムであるPrivate Map-Secure Reduce(PMSR)を導入する。
MapReduceを分散的な設定に拡張することで、PMSRは計算をデータに移し、検証可能なプライバシ、効率的な価格発見、インセンティブアライメントを保証する。
デモには、大規模なレコメンデータ監査、プライバシ保護のLLMアンサンブル(6つのモデルで87.5\% MMLUの精度)、数百のノードにわたる分散分析などが含まれている。
PMSRは、次世代のAIデータ市場のための、スケーラブルで、公平で、プライバシに保証された基盤を確立する。
関連論文リスト
- Sell Data to AI Algorithms Without Revealing It: Secure Data Valuation and Sharing via Homomorphic Encryption [10.12846924939717]
原資産を復号することなく外部データの有用性を定量化するための,プライバシ保護フレームワークであるTrustworthy Influence Protocol(TIP)を導入する。
均質暗号化と勾配に基づく影響関数を統合することで、当社のアプローチは、購入者の特定のAIモデルに対して、正確で盲目なデータポイントのスコア付けを可能にします。
医療と生成AIドメインにおける実証シミュレーションは、フレームワークの経済的ポテンシャルを検証する。
論文 参考訳(メタデータ) (2025-12-04T16:35:09Z) - Decentralized Intelligence Network (DIN) [0.0]
分散インテリジェンスネットワーク(Decentralized Intelligence Network, DIN)は、AI開発における課題に対処するために設計された理論フレームワークである。
このフレームワークは、参加者がデータのコントロールを維持し、金銭的に利益を享受し、分散型でスケーラブルなエコシステムに貢献できるようにすることで、効果的なAIトレーニングをサポートする。
論文 参考訳(メタデータ) (2024-07-02T17:40:06Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Privacy-Preserving Distributed Nonnegative Matrix Factorization [5.830814457423021]
完全分散非負行列分解(NMF)のためのプライバシ保護アルゴリズムを提案する。
各エージェントのローカルデータプライバシを保護しながら、分散した大規模データマトリックスを左右のマトリックスファクタに分解する。
エージェント間の左行列係数の協調推定を容易にし、各因子を生データを公開せずに推定することができる。
論文 参考訳(メタデータ) (2024-03-27T08:07:07Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - CaPS: Collaborative and Private Synthetic Data Generation from Distributed Sources [5.898893619901382]
分散データホルダから合成データの協調的かつプライベートな生成のためのフレームワークを提案する。
我々は信頼されたアグリゲータをセキュアなマルチパーティ計算プロトコルに置き換え、差分プライバシー(DP)を介してプライバシを出力する。
MWEM+PGMおよびAIMの最先端選択測度生成アルゴリズムに対するアプローチの適用性とスケーラビリティを実証する。
論文 参考訳(メタデータ) (2024-02-13T17:26:32Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Secure Multiparty Computation for Synthetic Data Generation from
Distributed Data [7.370727048591523]
関連データへのアクセスに関する法的および倫理的な制限は、健康、金融、教育といった重要な領域におけるデータ科学の研究を阻害する。
既存のアプローチでは、データ保持者は信頼されたキュレーターに生データを供給し、それを合成データ生成の燃料として利用する。
本稿では,データ保持者が暗号化されたデータのみを差分プライベートな合成データ生成のために共有する,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-13T20:09:17Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。