論文の概要: Securing Biomedical Images from Unauthorized Training with Anti-Learning
Perturbation
- arxiv url: http://arxiv.org/abs/2303.02559v1
- Date: Sun, 5 Mar 2023 03:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:01:44.866169
- Title: Securing Biomedical Images from Unauthorized Training with Anti-Learning
Perturbation
- Title(参考訳): アンチラーニングによる無許可トレーニングによるバイオメディカルイメージの確保
- Authors: Yixin Liu, Haohui Ye, Kai Zhang, Lichao Sun
- Abstract要約: そこで本研究では, 生医学的データを保護するために, 不知覚だが妄想的なノイズをデータに注入することで, 生医学的データを保護する手法を提案する。
本手法は,研究コミュニティの長期的発展のために,より多くの機関にデータ提供を促すための重要なステップである。
- 参考スコア(独自算出の注目度): 26.81914618642174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The volume of open-source biomedical data has been essential to the
development of various spheres of the healthcare community since more `free'
data can provide individual researchers more chances to contribute. However,
institutions often hesitate to share their data with the public due to the risk
of data exploitation by unauthorized third parties for another commercial usage
(e.g., training AI models). This phenomenon might hinder the development of the
whole healthcare research community. To address this concern, we propose a
novel approach termed `unlearnable biomedical image' for protecting biomedical
data by injecting imperceptible but delusive noises into the data, making them
unexploitable for AI models. We formulate the problem as a bi-level
optimization and propose three kinds of anti-learning perturbation generation
approaches to solve the problem. Our method is an important step toward
encouraging more institutions to contribute their data for the long-term
development of the research community.
- Abstract(参考訳): より多くの‘無料’データが個々の研究者に貢献の機会を提供するため、オープンソースのバイオメディカルデータの量は医療コミュニティのさまざまな領域の発展に不可欠である。
しかし、不正な第三者による他の商用利用(例えば、aiモデルのトレーニング)によるデータ搾取のリスクのために、機関はデータを一般と共有することをためらうことが多い。
この現象は、医療研究コミュニティ全体の発展を妨げる可能性がある。
そこで本研究では, 生体医学的データを保護するために, 不可避だが不可避なノイズをデータに注入することにより, 生体医学的データを保護するための新しい手法である「未発見バイオメディカルイメージ」を提案する。
本稿では,二段階最適化として問題を定式化し,この問題に対する3種類の反学習摂動生成手法を提案する。
本手法は,研究コミュニティの長期的発展のために,より多くの機関にデータ提供を促すための重要なステップである。
関連論文リスト
- Privacy-Preserving Collaborative Genomic Research: A Real-Life Deployment and Vision [2.7968600664591983]
本稿ではLynx.MDと共同で開発されたゲノム研究のためのプライバシ保護フレームワークを提案する。
このフレームワークは、重要なサイバーセキュリティとプライバシの課題に対処し、プライバシ保護によるゲノムデータの共有と分析を可能にする。
Lynx.MD内でのフレームワークの実装には、ゲノムデータをバイナリ形式に符号化し、制御された摂動技術を通じてノイズを適用することが含まれる。
論文 参考訳(メタデータ) (2024-07-12T05:43:13Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - A Survey of Few-Shot Learning for Biomedical Time Series [3.845248204742053]
データ駆動型モデルは、臨床診断を支援し、患者のケアを改善する大きな可能性を秘めている。
ラベル付きデータの不足を克服する新たなアプローチは、人間のような能力でAIメソッドを拡張して、少数ショット学習と呼ばれる限られた例で新しいタスクを学ぶことだ。
本調査は,生物医学的時系列アプリケーションのための数ショット学習手法の総合的なレビューと比較を行う。
論文 参考訳(メタデータ) (2024-05-03T21:22:27Z) - Medical Unlearnable Examples: Securing Medical Data from Unauthorized Training via Sparsity-Aware Local Masking [24.850260039814774]
商用AIモデルのトレーニングのような、認可されていない使用の恐れは、研究者が貴重なデータセットを共有するのを妨げる。
本研究では,画像全体ではなく重要な画素領域を選択的に摂動するSALM法を提案する。
実験により,SALMは,異なるモデルの不正なトレーニングを効果的に防止し,従来のSoTAデータ保護手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T02:35:36Z) - Balancing Privacy and Progress in Artificial Intelligence: Anonymization
in Histopathology for Biomedical Research and Education [1.8078387709049526]
医療データを“可能な限りオープン”に転送することは、患者のプライバシにリスクをもたらす。
既存の規制は、再識別リスクを避けるため、医療データを「必要に応じてクローズド」し続けるよう推進している。
本稿では,医療データ共有に関する法的規制と用語について考察する。
論文 参考訳(メタデータ) (2023-07-18T16:53:07Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Privacy-preserving Artificial Intelligence Techniques in Biomedicine [3.908261721108553]
機密データに基づくAIモデルのトレーニングは、個々の参加者のプライバシに関する懸念を提起する。
本稿では,生物医学におけるプライバシ保存型AI技術の進歩について概説する。
最も重要な最先端のアプローチを統一された分類分野に配置し、その強み、限界、オープンな問題について議論する。
論文 参考訳(メタデータ) (2020-07-22T18:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。