論文の概要: Processing of synthetic data in AI development for healthcare and the definition of personal data in EU law
- arxiv url: http://arxiv.org/abs/2508.08353v1
- Date: Mon, 11 Aug 2025 17:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.194315
- Title: Processing of synthetic data in AI development for healthcare and the definition of personal data in EU law
- Title(参考訳): 医療用AI開発における合成データの処理とEU法における個人データの定義
- Authors: Vibeke Binz Vallevik, Anne Kjersti C. Befring, Severin Elvatun, Jan Franz Nygaard,
- Abstract要約: 人工知能(AI)は医療を変革する可能性があるが、健康データにアクセスする必要がある。
本研究は,合成データを個人データとして分類すべきかどうかを検討する。
この結果は、特定の要因によっては、合成データが匿名である可能性が高いことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial intelligence (AI) has the potential to transform healthcare, but it requires access to health data. Synthetic data that is generated through machine learning models trained on real data, offers a way to share data while preserving privacy. However, uncertainties in the practical application of the General Data Protection Regulation (GDPR) create an administrative burden, limiting the benefits of synthetic data. Through a systematic analysis of relevant legal sources and an empirical study, this article explores whether synthetic data should be classified as personal data under the GDPR. The study investigates the residual identification risk through generating synthetic data and simulating inference attacks, challenging common perceptions of technical identification risk. The findings suggest synthetic data is likely anonymous, depending on certain factors, but highlights uncertainties about what constitutes reasonably likely risk. To promote innovation, the study calls for clearer regulations to balance privacy protection with the advancement of AI in healthcare.
- Abstract(参考訳): 人工知能(AI)は医療を変革する可能性があるが、健康データにアクセスする必要がある。
実際のデータに基づいてトレーニングされた機械学習モデルによって生成される合成データは、プライバシを保持しながらデータを共有する方法を提供する。
しかし、GDPR(General Data Protection Regulation)の実践的適用の不確実性は、管理上の負担を発生させ、合成データの利点を制限している。
本稿では、関連する法的資料の体系的分析と実証的研究を通じて、GDPRの下で合成データを個人データとして分類すべきかどうかを考察する。
本研究は, 合成データの生成と推論攻撃のシミュレーションによる残留識別リスクについて検討し, 技術的識別リスクの共通認識に挑戦する。
この結果は、特定の要因によっては、合成データが匿名である可能性が高いことを示唆している。
イノベーションを促進するために、この研究は、医療におけるAIの進歩とプライバシー保護のバランスをとるための、より明確な規制を求めている。
関連論文リスト
- The Data Sharing Paradox of Synthetic Data in Healthcare [9.66493160220239]
本稿では、合成データがデータ共有のために設計されているが、しばしば制限されているパラドックス的状況について論じる。
我々はこの問題を緩和するためにどのようにフィールドを前進させるかについて議論する。
論文 参考訳(メタデータ) (2025-03-26T16:06:40Z) - NFDI4Health workflow and service for synthetic data generation, assessment and risk management [0.0]
この課題に対する有望な解決策は、合成データ生成である。
この手法は、実際のデータの統計特性を模倣する全く新しいデータセットを作成する。
本稿では,ドイツのNFDI4Healthプロジェクト(NFDI4Health)の文脈で開発されたワークフローとサービスについて述べる。
論文 参考訳(メタデータ) (2024-08-08T14:08:39Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - The Use of Synthetic Data to Train AI Models: Opportunities and Risks
for Sustainable Development [0.6906005491572401]
本稿では,合成データの生成,利用,普及を規定する政策について検討する。
優れた合成データポリシーは、プライバシの懸念とデータの有用性のバランスを取らなければならない。
論文 参考訳(メタデータ) (2023-08-31T23:18:53Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Beyond Privacy: Navigating the Opportunities and Challenges of Synthetic
Data [91.52783572568214]
合成データは、機械学習の世界において支配的な力となり、データセットを個々のニーズに合わせて調整できる未来を約束する。
合成データのより広範な妥当性と適用のために,コミュニティが克服すべき根本的な課題について論じる。
論文 参考訳(メタデータ) (2023-04-07T16:38:40Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Measuring Utility and Privacy of Synthetic Genomic Data [3.635321290763711]
人工ゲノムデータを生成するための5つの最先端モデルの実用性とプライバシ保護を最初に評価する。
全体として、ボード全体でうまく機能する合成ゲノムデータを生成するための単一のアプローチは存在しない。
論文 参考訳(メタデータ) (2021-02-05T17:41:01Z) - Fidelity and Privacy of Synthetic Medical Data [0.0]
医療記録のデジタル化は、新時代のビッグデータから臨床科学へとつながった。
個々のレベルの医療データを共有する必要性は増え続けており、これ以上緊急ではない。
ビッグデータの利用に対する熱意は、患者の自律性とプライバシに対する完全な適切な懸念によって誘惑された。
論文 参考訳(メタデータ) (2021-01-18T23:01:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。