論文の概要: A Privacy-Preserving Cloud Architecture for Distributed Machine Learning at Scale
- arxiv url: http://arxiv.org/abs/2512.10341v1
- Date: Thu, 11 Dec 2025 06:46:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.229805
- Title: A Privacy-Preserving Cloud Architecture for Distributed Machine Learning at Scale
- Title(参考訳): 大規模分散機械学習のためのプライバシ保護クラウドアーキテクチャ
- Authors: Vinoth Punniyamoorthy, Ashok Gadi Parthi, Mayilsamy Palanigounder, Ravi Kiran Kodali, Bikesh Kumar, Kabilan Kannan,
- Abstract要約: この作業では、フェデレーション学習、差分プライバシ、ゼロ知識コンプライアンス証明、強化学習を活用したアダプティブガバナンスを統合する、クラウドネイティブなプライバシ保護アーキテクチャを導入している。
このフレームワークは機密データを集中化せずにセキュアなモデルトレーニングと推論をサポートし、機関やクラウドプラットフォーム間で暗号的に検証可能なポリシー適用を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed machine learning systems require strong privacy guarantees, verifiable compliance, and scalable deploy- ment across heterogeneous and multi-cloud environments. This work introduces a cloud-native privacy-preserving architecture that integrates federated learning, differential privacy, zero- knowledge compliance proofs, and adaptive governance powered by reinforcement learning. The framework supports secure model training and inference without centralizing sensitive data, while enabling cryptographically verifiable policy enforcement across institutions and cloud platforms. A full prototype deployed across hybrid Kubernetes clusters demonstrates reduced membership- inference risk, consistent enforcement of formal privacy budgets, and stable model performance under differential privacy. Ex- perimental evaluation across multi-institution workloads shows that the architecture maintains utility with minimal overhead while providing continuous, risk-aware governance. The pro- posed framework establishes a practical foundation for deploying trustworthy and compliant distributed machine learning systems at scale.
- Abstract(参考訳): 分散機械学習システムは、強力なプライバシ保証、検証可能なコンプライアンス、異種およびマルチクラウド環境へのスケーラブルなデプロイを必要とする。
この作業では、フェデレーション学習、差分プライバシ、ゼロ知識コンプライアンス証明、強化学習を活用したアダプティブガバナンスを統合する、クラウドネイティブなプライバシ保護アーキテクチャを導入している。
このフレームワークは機密データを集中化せずにセキュアなモデルトレーニングと推論をサポートし、機関やクラウドプラットフォーム間で暗号的に検証可能なポリシー適用を可能にする。
ハイブリッドKubernetesクラスタにデプロイされた完全なプロトタイプでは、メンバシップと推論のリスクの低減、正式なプライバシ予算の一貫して実施、差分プライバシの下での安定したモデルパフォーマンスが示されている。
マルチインスティテュートワークロードに対する事前評価は、アーキテクチャが最小限のオーバーヘッドでユーティリティを維持しながら、継続的かつリスク対応のガバナンスを提供することを示している。
提案されたフレームワークは、信頼性とコンプライアンスを備えた分散機械学習システムを大規模にデプロイするための実践的な基盤を確立する。
関連論文リスト
- CryptoTensors: A Light-Weight Large Language Model File Format for Highly-Secure Model Distribution [16.430668737524346]
機密LLM配信のためのセキュアでフォーマット互換なファイル構造であるCryptoTensorsを導入する。
広く採用されているSafetensorsフォーマットの拡張として開発されたCryptoTensorsには、テンソルレベルの暗号化と組み込みアクセス制御ポリシーが組み込まれている。
我々の結果は、CryptoTensorsを、現実世界および広範囲のデプロイメントにおいてLLM重みを保護するための軽量で効率的で、開発者フレンドリなソリューションとして強調している。
論文 参考訳(メタデータ) (2025-12-04T08:49:22Z) - A Federated Random Forest Solution for Secure Distributed Machine Learning [44.99833362998488]
本稿では,データプライバシを保護し,分散環境での堅牢な性能を提供するランダムフォレスト分類器のためのフェデレート学習フレームワークを提案する。
PySyftをセキュアでプライバシを意識した計算に活用することにより、複数の機関がローカルに保存されたデータ上でランダムフォレストモデルを協調的にトレーニングすることが可能となる。
2つの実世界の医療ベンチマークの実験は、フェデレートされたアプローチが、集中型のメソッドの最大9%のマージンで、競争の正確性を維持していることを示している。
論文 参考訳(メタデータ) (2025-05-12T21:40:35Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Scalable Multi-Agent Reinforcement Learning for Residential Load Scheduling under Data Governance [5.37556626581816]
マルチエージェント強化学習 (MARL) は, 協調型住宅負荷スケジューリング問題において, 顕著な進歩を遂げている。
MARLの最も一般的なパラダイムである集中型トレーニングは、通信制約のあるクラウドエッジ環境における大規模デプロイメントを制限する。
提案手法は,家庭の局所的な観察のみに基づく個人評論家の学習機能である,アクタ批判的手法に基づく。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - A Generative Federated Learning Framework for Differential Privacy [7.50722199393581]
本稿では,現在の連合学習パラダイムに代わる3DGLフレームワークを提案する。
その目標は、高レベルの$varepsilon$-differential privacyで生成モデルを共有することだ。
さらに,DDP-$beta$VAEを提案する。これは個人に対して高い利便性と安全性を持つ合成データを生成可能な深層生成モデルである。
論文 参考訳(メタデータ) (2021-09-24T16:36:19Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - PrivacyFL: A simulator for privacy-preserving and secure federated
learning [2.578242050187029]
フェデレートラーニング(Federated Learning)とは、分散クライアントが共同で機械学習モデルを学ぶことを可能にするテクニックである。
PrivacyFLはプライバシ保護とセキュアなフェデレーション学習シミュレータである。
論文 参考訳(メタデータ) (2020-02-19T20:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。