論文の概要: Lomas: A Platform for Confidential Analysis of Private Data
- arxiv url: http://arxiv.org/abs/2406.17087v1
- Date: Mon, 24 Jun 2024 19:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 18:31:07.457352
- Title: Lomas: A Platform for Confidential Analysis of Private Data
- Title(参考訳): Lomas: プライベートデータの機密解析のためのプラットフォーム
- Authors: Damien Aymon, Dan-Thuy Lam, Lancelot Marti, Pauline Maury-Laribière, Christine Choirat, Raphaël de Fondeville,
- Abstract要約: Lomasは、公共機関が保持するデータの潜在能力をフルに実現するために設計された、オープンソースの新しいプラットフォームである。
承認された研究者や政府アナリストなどの認証されたユーザは、機密データセット上でアルゴリズムを実行することができる。
Lomasはデータをユーザに公開せずにこれらのアルゴリズムを実行し、差分プライバシーによって保護された結果を返す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public services collect massive volumes of data to fulfill their missions. These data fuel the generation of regional, national, and international statistics across various sectors. However, their immense potential remains largely untapped due to strict and legitimate privacy regulations. In this context, Lomas is a novel open-source platform designed to realize the full potential of the data held by public administrations. It enables authorized users, such as approved researchers and government analysts, to execute algorithms on confidential datasets without directly accessing the data. The Lomas platform is designed to operate within a trusted computing environment, such as governmental IT infrastructure. Authorized users access the platform remotely to submit their algorithms for execution on private datasets. Lomas executes these algorithms without revealing the data to the user and returns the results protected by Differential Privacy, a framework that introduces controlled noise to the results, rendering any attempt to extract identifiable information unreliable. Differential Privacy allows for the mathematical quantification and control of the risk of disclosure while allowing for a complete transparency regarding how data is protected and utilized. The contributions of this project will significantly transform how data held by public services are used, unlocking valuable insights from previously inaccessible data. Lomas empowers research, informing policy development, e.g., public health interventions, and driving innovation across sectors, all while upholding the highest data confidentiality standards.
- Abstract(参考訳): 公共サービスは、ミッションを達成するために大量のデータを集めます。
これらのデータは、様々な分野にわたる地域、国家、国際統計の創出に寄与している。
しかし、厳格で合法的なプライバシー規制のために、その大きな可能性はほとんど失われていない。
この文脈において、Lomasは、行政が保持するデータの潜在能力をフルに実現するために設計された、新しいオープンソースプラットフォームである。
承認された研究者や政府アナリストなどの認可されたユーザは、データに直接アクセスすることなく、機密データセット上でアルゴリズムを実行することができる。
Lomasプラットフォームは、政府のITインフラストラクチャなど、信頼できるコンピューティング環境内で運用するために設計されている。
認証されたユーザは、リモートでプラットフォームにアクセスして、プライベートデータセット上で実行するためのアルゴリズムを送信します。
Lomasはデータをユーザに公開せずにこれらのアルゴリズムを実行し、制御されたノイズを結果に導入するフレームワークである差分プライバシーによって保護された結果を返す。
微分プライバシーは、データの保護と利用に関する完全な透明性を確保しながら、開示のリスクの数学的定量化と制御を可能にする。
このプロジェクトのコントリビューションは、公開サービスが保持するデータの使用方法を大きく変え、これまでアクセス不能だったデータから貴重な洞察を解放する。
Lomasは、研究、政策開発、例えば公衆衛生介入、セクター間のイノベーションの推進、そして、最高レベルのデータ機密基準の維持に力を入れている。
関連論文リスト
- Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Where you go is who you are -- A study on machine learning based
semantic privacy attacks [3.259843027596329]
本稿では,2つの攻撃シナリオ,すなわち位置分類とユーザプロファイリングを体系的に分析する。
Foursquareのデータセットと追跡データの実験は、高品質な空間情報の悪用の可能性を示している。
以上の結果から,追跡データや空間文脈データのデータベース化のリスクが指摘される。
論文 参考訳(メタデータ) (2023-10-26T17:56:50Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - PRIVEE: A Visual Analytic Workflow for Proactive Privacy Risk Inspection
of Open Data [3.2136309934080867]
個人情報を含むオープンデータセットは、匿名化しても敵攻撃の影響を受けやすい。
我々は、ローカルで結合可能なデータ地区における開示リスクを、データディフェンダーが認識できるようにするビジュアル分析ソリューションを開発した。
我々はこの問題とドメイン特性を用いて、防御機構としての視覚的分析的介入のセットを開発する。
論文 参考訳(メタデータ) (2022-08-12T19:57:09Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy [1.911678487931003]
本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
論文 参考訳(メタデータ) (2021-12-23T08:30:17Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z) - Protecting Privacy and Transforming COVID-19 Case Surveillance Datasets
for Public Use [0.4462475518267084]
CDCは、個人レベルの未確認データを管轄区域から収集し、現在800万件以上の記録を保有している。
データ要素は、有用性、公開要求、およびプライバシーの影響に基づいて含まれた。
機密情報の再識別や暴露のリスクを低減するため、特定のフィールド値が抑制された。
論文 参考訳(メタデータ) (2021-01-13T14:24:20Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。