論文の概要: Privacy-Preserving Data Sharing in Agriculture: Enforcing Policy Rules
for Secure and Confidential Data Synthesis
- arxiv url: http://arxiv.org/abs/2311.15460v1
- Date: Mon, 27 Nov 2023 00:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:28:13.597003
- Title: Privacy-Preserving Data Sharing in Agriculture: Enforcing Policy Rules
for Secure and Confidential Data Synthesis
- Title(参考訳): 農業におけるプライバシ保護データ共有 : 安全・信頼性データ合成のためのポリシールールの施行
- Authors: Anantaa Kotal, Lavanya Elluri, Deepti Gupta, Varun Mandalapu and
Anupam Joshi
- Abstract要約: 農業におけるビッグデータの利用には、センサー、衛星、農夫の調査など、さまざまな情報源のデータ収集と分析が必要である。
このデータのセキュリティと参加者のプライバシに関して、大きな懸念がある。
プライバシー保護データ共有のために、ディープラーニングに基づく合成データ生成が提案されている。
本稿ではプライバシ保護データ生成アルゴリズムにおけるプライバシポリシルールの強化のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Big Data empowers the farming community with the information needed to
optimize resource usage, increase productivity, and enhance the sustainability
of agricultural practices. The use of Big Data in farming requires the
collection and analysis of data from various sources such as sensors,
satellites, and farmer surveys. While Big Data can provide the farming
community with valuable insights and improve efficiency, there is significant
concern regarding the security of this data as well as the privacy of the
participants. Privacy regulations, such as the EU GDPR, the EU Code of Conduct
on agricultural data sharing by contractual agreement, and the proposed EU AI
law, have been created to address the issue of data privacy and provide
specific guidelines on when and how data can be shared between organizations.
To make confidential agricultural data widely available for Big Data analysis
without violating the privacy of the data subjects, we consider
privacy-preserving methods of data sharing in agriculture. Deep learning-based
synthetic data generation has been proposed for privacy-preserving data
sharing. However, there is a lack of compliance with documented data privacy
policies in such privacy-preserving efforts. In this study, we propose a novel
framework for enforcing privacy policy rules in privacy-preserving data
generation algorithms. We explore several available agricultural codes of
conduct, extract knowledge related to the privacy constraints in data, and use
the extracted knowledge to define privacy bounds in a privacy-preserving
generative model. We use our framework to generate synthetic agricultural data
and present experimental results that demonstrate the utility of the synthetic
dataset in downstream tasks. We also show that our framework can evade
potential threats and secure data based on applicable regulatory policy rules.
- Abstract(参考訳): ビッグデータは、資源使用の最適化、生産性の向上、農業プラクティスの持続可能性の向上に必要な情報によって、農業コミュニティに力を与える。
農業におけるビッグデータの利用には、センサー、衛星、農業調査などのさまざまなソースからのデータ収集と分析が必要である。
Big Dataは農業コミュニティに貴重な洞察を提供し、効率を向上させることができるが、このデータのセキュリティと参加者のプライバシに関して大きな懸念がある。
EU GDPR(EU GDPR)やEUの契約による農業データ共有に関する行動規範(EU Code of Conduct on agricultural data sharing)、EU AI法(EU AI law)などのプライバシー規制は、データのプライバシの問題に対処し、いつ、どのようにデータを組織間で共有できるかに関する具体的なガイドラインを提供するために作成されている。
ビッグデータ分析に機密データを広く利用するためには,データのプライバシを侵害することなく,農業におけるデータ共有のプライバシ保護方法を検討する。
プライバシー保護データ共有のために、ディープラーニングに基づく合成データ生成が提案されている。
しかし、このようなプライバシー保護努力には、文書化されたデータプライバシポリシーへの準拠が欠如している。
本研究では,プライバシ保護型データ生成アルゴリズムにおいて,プライバシポリシルールを強制する新たな枠組みを提案する。
我々は、利用可能な農業行動規範をいくつか探求し、データのプライバシー制約に関する知識を抽出し、抽出した知識を用いてプライバシー保護生成モデルにおけるプライバシー境界を定義する。
我々は,本フレームワークを用いて人工農業データを生成し,下流作業における合成データセットの有用性を示す実験結果を示す。
また,本フレームワークは,規制規制ルールに基づいて,潜在的な脅威やデータ保護を回避することができることを示す。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - The Use of Synthetic Data to Train AI Models: Opportunities and Risks
for Sustainable Development [0.6906005491572401]
本稿では,合成データの生成,利用,普及を規定する政策について検討する。
優れた合成データポリシーは、プライバシの懸念とデータの有用性のバランスを取らなければならない。
論文 参考訳(メタデータ) (2023-08-31T23:18:53Z) - Beyond Privacy: Navigating the Opportunities and Challenges of Synthetic
Data [91.52783572568214]
合成データは、機械学習の世界において支配的な力となり、データセットを個々のニーズに合わせて調整できる未来を約束する。
合成データのより広範な妥当性と適用のために,コミュニティが克服すべき根本的な課題について論じる。
論文 参考訳(メタデータ) (2023-04-07T16:38:40Z) - Synthetic Data: Methods, Use Cases, and Risks [11.413309528464632]
研究コミュニティと業界の両方で勢いを増す可能性のある選択肢は、代わりに合成データを共有することだ。
我々は、合成データについて穏やかに紹介し、そのユースケース、未適応のプライバシー問題、そしてその固有の制限を効果的なプライバシー強化技術として論じます。
論文 参考訳(メタデータ) (2023-03-01T16:35:33Z) - More Data Types More Problems: A Temporal Analysis of Complexity,
Stability, and Sensitivity in Privacy Policies [0.0]
データブローカーとデータプロセッサは、消費者データを収集し、購入し、販売することで利益を得る、数十億ドル規模の産業の一部である。
しかし、データ収集業界には、どのような種類のデータが収集、使用、販売されているかを理解するのが難しくなる透明性がほとんどありません。
論文 参考訳(メタデータ) (2023-02-17T15:21:24Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Protecting Privacy and Transforming COVID-19 Case Surveillance Datasets
for Public Use [0.4462475518267084]
CDCは、個人レベルの未確認データを管轄区域から収集し、現在800万件以上の記録を保有している。
データ要素は、有用性、公開要求、およびプライバシーの影響に基づいて含まれた。
機密情報の再識別や暴露のリスクを低減するため、特定のフィールド値が抑制された。
論文 参考訳(メタデータ) (2021-01-13T14:24:20Z) - Second layer data governance for permissioned blockchains: the privacy
management challenge [58.720142291102135]
新型コロナウイルス(COVID-19)やエボラウイルス(エボラ出血熱)のようなパンデミックの状況では、医療データを共有することに関連する行動は、大規模な感染を避け、死亡者を減らすために重要である。
この意味において、許可されたブロックチェーン技術は、スマートコントラクトが管理する不変で統一された分散データベースを通じて、データのオーナシップ、透明性、セキュリティを提供する権利をユーザに与えるために登場します。
論文 参考訳(メタデータ) (2020-10-22T13:19:38Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。