論文の概要: Audit to Forget: A Unified Method to Revoke Patients' Private Data in
Intelligent Healthcare
- arxiv url: http://arxiv.org/abs/2302.09813v1
- Date: Mon, 20 Feb 2023 07:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:29:07.003039
- Title: Audit to Forget: A Unified Method to Revoke Patients' Private Data in
Intelligent Healthcare
- Title(参考訳): Audit to Forget:Intelligent Healthcareにおける患者の個人データを一元化する方法
- Authors: Juexiao Zhou, Haoyang Li, Xingyu Liao, Bin Zhang, Wenjia He, Zhongxiao
Li, Longxi Zhou, Xin Gao
- Abstract要約: 我々は,事前学習した深層学習モデルから患者の個人データを評価・取り消しできるAFSを開発した。
異なるデータセット上の4つのタスクに適用することで、AFSの汎用性を実証した。
- 参考スコア(独自算出の注目度): 14.22413100609926
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Revoking personal private data is one of the basic human rights, which has
already been sheltered by several privacy-preserving laws in many countries.
However, with the development of data science, machine learning and deep
learning techniques, this right is usually neglected or violated as more and
more patients' data are being collected and used for model training, especially
in intelligent healthcare, thus making intelligent healthcare a sector where
technology must meet the law, regulations, and privacy principles to ensure
that the innovation is for the common good. In order to secure patients' right
to be forgotten, we proposed a novel solution by using auditing to guide the
forgetting process, where auditing means determining whether a dataset has been
used to train the model and forgetting requires the information of a query
dataset to be forgotten from the target model. We unified these two tasks by
introducing a new approach called knowledge purification. To implement our
solution, we developed AFS, a unified open-source software, which is able to
evaluate and revoke patients' private data from pre-trained deep learning
models. We demonstrated the generality of AFS by applying it to four tasks on
different datasets with various data sizes and architectures of deep learning
networks. The software is publicly available at
\url{https://github.com/JoshuaChou2018/AFS}.
- Abstract(参考訳): 個人情報の取り消しは、多くの国ですでにプライバシー保護法によって保護されている基本的人権の1つだ。
しかし、データサイエンス、機械学習、ディープラーニング技術の発展に伴い、この権利は、特にインテリジェントヘルスケアにおいて、より多くの患者のデータが収集され、モデルトレーニングに使用されているため、一般的に無視または侵害される。
患者が忘れられる権利を確保するために,我々は,データ集合がモデルのトレーニングに使われたかどうかを監査手段で判断し,そのデータ集合がターゲットモデルから忘れられるかどうかを判断する監査手法を用いて,新しい解決法を提案した。
我々はこれら2つのタスクを知識浄化という新しいアプローチによって統合した。
このソリューションを実現するため,我々は,事前学習したディープラーニングモデルから患者の個人データを評価・削除できる統合オープンソースソフトウェアafsを開発した。
深層学習ネットワークのさまざまなデータサイズとアーキテクチャを持つ異なるデータセット上の4つのタスクに適用することで、AFSの汎用性を実証した。
このソフトウェアは \url{https://github.com/JoshuaChou2018/AFS} で公開されている。
関連論文リスト
- EPIC: Enhancing Privacy through Iterative Collaboration [4.199844472131922]
従来の機械学習技術は、中央集権的なデータ収集と処理を必要とする。
医療データを集中ストレージにプールする場合、プライバシ、オーナシップ、厳格な規制の問題が存在する。
フェデレートラーニング(FL)アプローチは、中央アグリゲータサーバと共有グローバルモデルを設定することで、そのような問題を克服する。
論文 参考訳(メタデータ) (2024-11-07T20:10:34Z) - Machine Unlearning for Document Classification [14.71726430657162]
機械学習として知られる新しいアプローチが登場し、AIモデルを特定の種類のデータを忘れるようにしている。
この研究は、文書分析アプリケーションにおけるプライバシー問題に対処することを目的とした機械学習手法の開発に向けた先駆的なステップである。
論文 参考訳(メタデータ) (2024-04-29T18:16:13Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Lightweight machine unlearning in neural network [2.406359246841227]
「忘れるべき権利」は、個人が同意に基づいて同意を取り下げる権利を有することを規定して、タイムリーに導入された。
この問題を解決するために、モデルがプライベート情報のすべてのメモリを消去できるマシンアンラーニングを提案する。
我々の方法は再訓練の15倍速い。
論文 参考訳(メタデータ) (2021-11-10T04:48:31Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。