論文の概要: Privacy-Preserving Data Processing in Cloud : From Homomorphic Encryption to Federated Analytics
- arxiv url: http://arxiv.org/abs/2601.06710v1
- Date: Sat, 10 Jan 2026 22:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.951015
- Title: Privacy-Preserving Data Processing in Cloud : From Homomorphic Encryption to Federated Analytics
- Title(参考訳): クラウドにおけるプライバシ保護データ処理 : 均質暗号化からフェデレーション分析へ
- Authors: Gaurav Sarraf, Vibhor Pal,
- Abstract要約: プライバシ保存データ処理とは、機密性の保証のある機密データの計算と分析を可能にする方法とモデルを指す。
このレビューでは、クラウド計算における最近のプライバシ保護アプローチを詳細に検討し、データ処理に対する安全かつ効果的なソリューションについて、学者や実践者が重要な情報を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy-preserving data processing refers to the methods and models that allow computing and analyzing sensitive data with a guarantee of confidentiality. As cloud computing and applications that rely on data continue to expand, there is an increasing need to protect personal, financial and healthcare information. Conventional centralized data processing methods expose sensitive data to risk of breaches, compelling the need to use decentralized and secure data methods. This paper gives a detailed review of privacy-saving mechanisms in the cloud platform, such as statistical approaches like differential privacy and cryptographic solutions like homomorphic encryption. Federated analytics and federated learning, two distributed learning frameworks, are also discussed. Their principles, applications, benefits, and limitations are reviewed, with roles of use in the fields of healthcare, finance, IoT, and industrial cases. Comparative analyses measure trade-offs in security, efficiency, scalability, and accuracy, and investigations are done of emerging hybrid frameworks to provide better privacy protection. Critical issues, including computational overhead, privacy-utility trade-offs, standardization, adversarial threats, and cloud integration are also addressed. This review examines in detail the recent privacy-protecting approaches in cloud computation and offers scholars and practitioners crucial information on secure and effective solutions to data processing.
- Abstract(参考訳): プライバシ保存データ処理とは、機密性の保証のある機密データの計算と分析を可能にする方法とモデルを指す。
データに依存するクラウドコンピューティングやアプリケーションが拡大を続ける中、個人、財務、医療情報を保護する必要性が高まっている。
従来型の集中型データ処理手法は、機密データを侵害のリスクにさらし、分散化されたセキュアなデータ手法を使用する必要性を喚起するものだった。
本稿では,クラウドプラットフォームにおけるプライバシ保護機構の詳細なレビューを行う。例えば,差分プライバシーのような統計的アプローチや,同型暗号化のような暗号ソリューションについて述べる。
分散学習フレームワークであるフェデレーション分析とフェデレーション学習についても論じている。
彼らの原則、アプリケーション、メリット、制限をレビューし、医療、金融、IoT、産業ケースの分野での利用の役割についてレビューする。
比較分析は、セキュリティ、効率、スケーラビリティ、正確性におけるトレードオフを計測し、より優れたプライバシ保護を提供するために、新興のハイブリッドフレームワークを調査する。
計算オーバーヘッド、プライバシとユーティリティのトレードオフ、標準化、敵の脅威、クラウド統合といった重要な問題にも対処する。
このレビューでは、クラウド計算における最近のプライバシ保護アプローチを詳細に検討し、データ処理に対する安全かつ効果的なソリューションについて、学者や実践者が重要な情報を提供する。
関連論文リスト
- On the Security and Privacy of Federated Learning: A Survey with Attacks, Defenses, Frameworks, Applications, and Future Directions [1.7056096558557128]
Federated Learning(FL)は、クライアントが生データを共有せずにグローバルモデルを協調的にトレーニングできる、新興の分散機械学習パラダイムである。
FLはデータプライバシを設計によって強化するが、さまざまなセキュリティやプライバシの脅威に対して脆弱である。
セキュリティ強化手法は、ビザンチン攻撃、中毒、シビル攻撃などの悪意ある行動に対してFLの堅牢性を改善することを目的としている。
プライバシー保護技術は、暗号化アプローチ、差分プライバシー、セキュアアグリゲーションを通じて機密データを保護することに重点を置いている。
論文 参考訳(メタデータ) (2025-08-19T11:06:20Z) - AI-Driven Secure Data Sharing: A Trustworthy and Privacy-Preserving Approach [1.4274471390400758]
本研究は,ブロックピクセル操作に基づく学習可能な暗号化手法によるセキュアなフレームワークを導入し,データを暗号化する。
提案されたフレームワークは、キーごとにユニークなスクランブルパターンを作成することによって、データのプライバシとセキュリティを保証する。
このフレームワークは、実世界のデータセットを広範囲にテストした後、94%の成功率で検証された。
論文 参考訳(メタデータ) (2025-01-26T02:03:19Z) - Balancing Confidentiality and Transparency for Blockchain-based Process-Aware Information Systems [43.253676241213626]
機密性と透明性を維持するために,ブロックチェーンベースのPAISアーキテクチャを提案する。
スマートコントラクトは公開インタラクションを制定、強制、保存し、属性ベースの暗号化技術は機密情報へのアクセス許可を指定するために採用されている。
システム的脅威モデル解析によりソリューションの安全性を評価し,その実用性を評価する。
論文 参考訳(メタデータ) (2024-12-07T20:18:36Z) - Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Verifiable Privacy-Preserving Computing [3.543432625843538]
我々は、検証可能性と、分散データ上のプライバシ保存計算を組み合わせた既存のソリューションを分析する。
我々は、ソリューションアプローチ、セキュリティ、効率、実用性に関する37の異なるスキームを分類し比較する。
論文 参考訳(メタデータ) (2023-09-15T08:44:13Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。