論文の概要: Safeguarding Medical Image Segmentation Datasets against Unauthorized Training via Contour- and Texture-Aware Perturbations
- arxiv url: http://arxiv.org/abs/2403.14250v1
- Date: Thu, 21 Mar 2024 09:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:57:51.280038
- Title: Safeguarding Medical Image Segmentation Datasets against Unauthorized Training via Contour- and Texture-Aware Perturbations
- Title(参考訳): コンター・テクスチュア・アウェア・摂動による無許可トレーニングに対する医用画像分割データセットの保護
- Authors: Xun Lin, Yi Yu, Song Xia, Jue Jiang, Haoran Wang, Zitong Yu, Yizhong Liu, Ying Fu, Shuai Wang, Wenzhong Tang, Alex Kot,
- Abstract要約: UMedと呼ばれる非学習可能な医用画像生成手法を提案する。
UMedは、画像を保護するために輪郭とテクスチャを意識した摂動を注入することで、MISの以前の知識を統合する。
- 参考スコア(独自算出の注目度): 36.409359936487064
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread availability of publicly accessible medical images has significantly propelled advancements in various research and clinical fields. Nonetheless, concerns regarding unauthorized training of AI systems for commercial purposes and the duties of patient privacy protection have led numerous institutions to hesitate to share their images. This is particularly true for medical image segmentation (MIS) datasets, where the processes of collection and fine-grained annotation are time-intensive and laborious. Recently, Unlearnable Examples (UEs) methods have shown the potential to protect images by adding invisible shortcuts. These shortcuts can prevent unauthorized deep neural networks from generalizing. However, existing UEs are designed for natural image classification and fail to protect MIS datasets imperceptibly as their protective perturbations are less learnable than important prior knowledge in MIS, e.g., contour and texture features. To this end, we propose an Unlearnable Medical image generation method, termed UMed. UMed integrates the prior knowledge of MIS by injecting contour- and texture-aware perturbations to protect images. Given that our target is to only poison features critical to MIS, UMed requires only minimal perturbations within the ROI and its contour to achieve greater imperceptibility (average PSNR is 50.03) and protective performance (clean average DSC degrades from 82.18% to 6.80%).
- Abstract(参考訳): 公開医療画像の普及により,様々な研究・臨床分野での進歩が著しく促進された。
それでも、商用目的のAIシステムの無許可トレーニングや患者のプライバシー保護の義務に関する懸念は、多くの機関が画像の共有をためらっている。
これは医用画像セグメンテーション(MIS)データセットに特に当てはまる。
近年、未学習例(UE)法は、目に見えないショートカットを追加することで、画像を保護する可能性を示している。
これらのショートカットは、許可されていないディープニューラルネットワークの一般化を防ぐことができる。
しかし、既存のUEは自然画像分類用に設計されており、保護摂動がMIS、例えば輪郭、テクスチャといった重要な知識よりも学習しやすいため、MISデータセットを不可避的に保護することができない。
そこで本研究では,UMedと呼ばれる非学習可能な医用画像生成手法を提案する。
UMedは、画像を保護するために輪郭とテクスチャを意識した摂動を注入することで、MISの以前の知識を統合する。
本研究の目的は,MISに致命的な毒性のみを付与することであり, UMedはROI内とその輪郭の摂動を最小限に抑えることで, 高い知覚能力(平均PSNRは50.03)と保護性能(平均DSCが82.18%から6.80%に低下する)を実現することである。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Medical Unlearnable Examples: Securing Medical Data from Unauthorized Training via Sparsity-Aware Local Masking [24.850260039814774]
商用AIモデルのトレーニングのような、認可されていない使用の恐れは、研究者が貴重なデータセットを共有するのを妨げる。
本研究では,画像全体ではなく重要な画素領域を選択的に摂動するSALM法を提案する。
実験により,SALMは,異なるモデルの不正なトレーニングを効果的に防止し,従来のSoTAデータ保護手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T02:35:36Z) - MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative Adversarial Networks [48.686454485328895]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは、人間の目には知覚できない微調整された摂動を導入することで、攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンによる実験結果から,MITS-GANの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - AMLP:Adaptive Masking Lesion Patches for Self-supervised Medical Image
Segmentation [67.97926983664676]
自己監督型マスク画像モデリングは自然画像に対して有望な結果を示した。
しかし,このような手法を医用画像に直接適用することは依然として困難である。
適応型マスキング病変パッチ(AMLP)の自己管理型医用画像分割フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T13:18:10Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - MIRST-DM: Multi-Instance RST with Drop-Max Layer for Robust
Classification of Breast Cancer [62.997667081978825]
MIRST-DMと呼ばれるドロップマックス層を用いたマルチインスタンスRTTを提案し、小さなデータセット上でよりスムーズな決定境界を学習する。
提案手法は1,190画像の小さな乳房超音波データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-05-02T20:25:26Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Realistic Adversarial Data Augmentation for MR Image Segmentation [17.951034264146138]
医用画像セグメンテーションのためのニューラルネットワークのトレーニングのための逆データ拡張手法を提案する。
このモデルでは,MR画像における共通の種類のアーチファクトによって生じる強度不均一性,すなわちバイアス場をモデル化する。
このような手法により,モデルの一般化と堅牢性の向上が図られ,低データシナリオにおける大幅な改善が期待できる。
論文 参考訳(メタデータ) (2020-06-23T20:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。