論文の概要: Securing Biomedical Images from Unauthorized Training with Anti-Learning
Perturbation
- arxiv url: http://arxiv.org/abs/2303.02559v1
- Date: Sun, 5 Mar 2023 03:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:01:44.866169
- Title: Securing Biomedical Images from Unauthorized Training with Anti-Learning
Perturbation
- Title(参考訳): アンチラーニングによる無許可トレーニングによるバイオメディカルイメージの確保
- Authors: Yixin Liu, Haohui Ye, Kai Zhang, Lichao Sun
- Abstract要約: そこで本研究では, 生医学的データを保護するために, 不知覚だが妄想的なノイズをデータに注入することで, 生医学的データを保護する手法を提案する。
本手法は,研究コミュニティの長期的発展のために,より多くの機関にデータ提供を促すための重要なステップである。
- 参考スコア(独自算出の注目度): 26.81914618642174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The volume of open-source biomedical data has been essential to the
development of various spheres of the healthcare community since more `free'
data can provide individual researchers more chances to contribute. However,
institutions often hesitate to share their data with the public due to the risk
of data exploitation by unauthorized third parties for another commercial usage
(e.g., training AI models). This phenomenon might hinder the development of the
whole healthcare research community. To address this concern, we propose a
novel approach termed `unlearnable biomedical image' for protecting biomedical
data by injecting imperceptible but delusive noises into the data, making them
unexploitable for AI models. We formulate the problem as a bi-level
optimization and propose three kinds of anti-learning perturbation generation
approaches to solve the problem. Our method is an important step toward
encouraging more institutions to contribute their data for the long-term
development of the research community.
- Abstract(参考訳): より多くの‘無料’データが個々の研究者に貢献の機会を提供するため、オープンソースのバイオメディカルデータの量は医療コミュニティのさまざまな領域の発展に不可欠である。
しかし、不正な第三者による他の商用利用(例えば、aiモデルのトレーニング)によるデータ搾取のリスクのために、機関はデータを一般と共有することをためらうことが多い。
この現象は、医療研究コミュニティ全体の発展を妨げる可能性がある。
そこで本研究では, 生体医学的データを保護するために, 不可避だが不可避なノイズをデータに注入することにより, 生体医学的データを保護するための新しい手法である「未発見バイオメディカルイメージ」を提案する。
本稿では,二段階最適化として問題を定式化し,この問題に対する3種類の反学習摂動生成手法を提案する。
本手法は,研究コミュニティの長期的発展のために,より多くの機関にデータ提供を促すための重要なステップである。
関連論文リスト
- Vertical Federated Alzheimer's Detection on Multimodal Data [0.0]
分散データからトレーニングできるHIPAA準拠のフレームワークを紹介します。
次に,アルツハイマー病検出のための多モード垂直フェデレーションモデルを提案する。
論文 参考訳(メタデータ) (2023-12-15T22:09:04Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Balancing Privacy and Progress in Artificial Intelligence: Anonymization
in Histopathology for Biomedical Research and Education [1.8078387709049526]
医療データを“可能な限りオープン”に転送することは、患者のプライバシにリスクをもたらす。
既存の規制は、再識別リスクを避けるため、医療データを「必要に応じてクローズド」し続けるよう推進している。
本稿では,医療データ共有に関する法的規制と用語について考察する。
論文 参考訳(メタデータ) (2023-07-18T16:53:07Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Machine Learning in Precision Medicine to Preserve Privacy via
Encryption [2.099922236065961]
我々は,がんを予測するMLモデルの構築に使用した,暗号化(MLE)フレームワークを用いた汎用機械学習を提案する。
我々のフレームワークの予測精度は、同じデータセット上で実施された最新の研究よりもわずかに高い。
私たちは、フレームワークの設計と実装、すべてのML実験とコード、そして、無料のクラウドサービスにデプロイされた最終的な予測モデルを含む、オープンソースのリポジトリを提供しています。
論文 参考訳(メタデータ) (2021-02-05T20:22:15Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Privacy-preserving Artificial Intelligence Techniques in Biomedicine [3.908261721108553]
機密データに基づくAIモデルのトレーニングは、個々の参加者のプライバシに関する懸念を提起する。
本稿では,生物医学におけるプライバシ保存型AI技術の進歩について概説する。
最も重要な最先端のアプローチを統一された分類分野に配置し、その強み、限界、オープンな問題について議論する。
論文 参考訳(メタデータ) (2020-07-22T18:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。