論文の概要: A User-Centric, Privacy-Preserving, and Verifiable Ecosystem for Personal Data Management and Utilization
- arxiv url: http://arxiv.org/abs/2506.22606v1
- Date: Fri, 27 Jun 2025 20:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.482338
- Title: A User-Centric, Privacy-Preserving, and Verifiable Ecosystem for Personal Data Management and Utilization
- Title(参考訳): 個人データ管理・活用のためのユーザ中心・プライバシ保護・検証可能なエコシステム
- Authors: Osama Zafar, Mina Namazi, Yuqiao Xu, Youngjin Yoo, Erman Ayday,
- Abstract要約: 本稿では,異種個人情報を扱う分散型プライバシ保護アーキテクチャを提案する。
従来のモデルとは異なり、当社のシステムはユーザのデータ所有とコントロールを完全化し、プライバシを損なうことなく情報を選択的に共有できるようにします。
- 参考スコア(独自算出の注目度): 1.6000462052866455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the current paradigm of digital personalized services, the centralized management of personal data raises significant privacy concerns, security vulnerabilities, and diminished individual autonomy over sensitive information. Despite their efficiency, traditional centralized architectures frequently fail to satisfy rigorous privacy requirements and expose users to data breaches and unauthorized access risks. This pressing challenge calls for a fundamental paradigm shift in methodologies for collecting, storing, and utilizing personal data across diverse sectors, including education, healthcare, and finance. This paper introduces a novel decentralized, privacy-preserving architecture that handles heterogeneous personal information, ranging from educational credentials to health records and financial data. Unlike traditional models, our system grants users complete data ownership and control, allowing them to selectively share information without compromising privacy. The architecture's foundation comprises advanced privacy-enhancing technologies, including secure enclaves and federated learning, enabling secure computation, verification, and data sharing. The system supports diverse functionalities, including local computation, model training, and privacy-preserving data sharing, while ensuring data credibility and robust user privacy.
- Abstract(参考訳): デジタルパーソナライズされたサービスの現在のパラダイムでは、個人情報の集中管理は、重要なプライバシー上の懸念、セキュリティ上の脆弱性、機密情報に対する個人の自律性を低下させる。
その効率性にもかかわらず、従来の集中型アーキテクチャは厳格なプライバシー要件を満たすことができず、データ漏洩や不正アクセスリスクにユーザをさらけ出す。
この圧力的な課題は、教育、医療、金融など様々な分野の個人データを収集、保存、利用するための方法論の根本的なパラダイムシフトを要求する。
本稿では,教育情報から健康記録,財務データに至るまで,異質な個人情報を扱う分散型プライバシ保護アーキテクチャを提案する。
従来のモデルとは異なり、当社のシステムはユーザのデータ所有とコントロールを完全化し、プライバシを損なうことなく情報を選択的に共有できるようにします。
アーキテクチャの基礎は、セキュアなエンクレーブとフェデレーション付き学習を含む高度なプライバシー強化技術で構成されており、セキュアな計算、検証、データ共有を可能にしている。
このシステムは、ローカル計算、モデルトレーニング、プライバシ保存データ共有など、さまざまな機能をサポートし、データの信頼性と堅牢なユーザのプライバシを保証する。
関連論文リスト
- Towards Personal Data Sharing Autonomy:A Task-driven Data Capsule Sharing System [5.076862984714449]
本稿では、個人データ共有自律性を実現するためのデータカプセルパラダイムに基づくタスク駆動型個人データ共有システムを提案する。
具体的には,データカプセルを独立かつセキュアな個人データストレージと共有のための最小単位とする,タンパー抵抗型データカプセルカプセルカプセル化法を提案する。
論文 参考訳(メタデータ) (2024-09-27T05:13:33Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - PrivEdge: From Local to Distributed Private Training and Prediction [43.02041269239928]
PrivEdgeはプライバシ保護機械学習(ML)のためのテクニック
PrivEdgeは、トレーニングのためにデータを提供するユーザのプライバシと、予測サービスを使用するユーザのプライバシを保護する。
PrivEdgeは、プライバシの保存や、プライベートイメージと非プライベートイメージの区別において、高い精度とリコールを持っていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:26:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。