論文の概要: Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment
- arxiv url: http://arxiv.org/abs/2502.02438v1
- Date: Tue, 04 Feb 2025 16:04:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:57.808167
- Title: Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment
- Title(参考訳): 逆行性ドメインアライメントによる医療マルチモーダルモデルステアリングアタック
- Authors: Yaling Shen, Zhixiong Zhuang, Kun Yuan, Maria-Irina Nicolae, Nassir Navab, Nicolas Padoy, Mario Fritz,
- Abstract要約: 医療マルチモーダル大言語モデル(MLLM)は医療システムにおいて重要な要素となっている。
医療データはプライバシー規制によって保護されていないため、医療MLLMは貴重な知的財産である。
本稿では,医療MLLMに対する最初の盗難攻撃であるAdversarial Domain Alignment(ADA-STEAL)を紹介する。
- 参考スコア(独自算出の注目度): 79.41098832007819
- License:
- Abstract: Medical multimodal large language models (MLLMs) are becoming an instrumental part of healthcare systems, assisting medical personnel with decision making and results analysis. Models for radiology report generation are able to interpret medical imagery, thus reducing the workload of radiologists. As medical data is scarce and protected by privacy regulations, medical MLLMs represent valuable intellectual property. However, these assets are potentially vulnerable to model stealing, where attackers aim to replicate their functionality via black-box access. So far, model stealing for the medical domain has focused on classification; however, existing attacks are not effective against MLLMs. In this paper, we introduce Adversarial Domain Alignment (ADA-STEAL), the first stealing attack against medical MLLMs. ADA-STEAL relies on natural images, which are public and widely available, as opposed to their medical counterparts. We show that data augmentation with adversarial noise is sufficient to overcome the data distribution gap between natural images and the domain-specific distribution of the victim MLLM. Experiments on the IU X-RAY and MIMIC-CXR radiology datasets demonstrate that Adversarial Domain Alignment enables attackers to steal the medical MLLM without any access to medical data.
- Abstract(参考訳): 医療マルチモーダル大言語モデル(MLLM)は医療システムにおいて,意思決定と結果分析による医療従事者支援の手段となっている。
放射線学レポート生成モデルでは、医療画像の解釈が可能であり、放射線技師の作業量を削減できる。
医療データはプライバシー規制によって保護されていないため、医療MLLMは貴重な知的財産である。
しかし、これらの資産はモデル盗難に弱い可能性があり、攻撃者はブラックボックスアクセスを通じて機能を複製することを目指している。
これまでのところ、医療領域のモデル盗難は分類に重点を置いているが、既存の攻撃はMLLMに対して効果がない。
本稿では,医療MLLMに対する最初の盗難攻撃であるAdversarial Domain Alignment(ADA-STEAL)を紹介する。
ADA-STEALは、医用画像とは対照的に、パブリックで広く入手可能な自然画像に依存している。
本研究では, 自然画像と被害者MLLMの領域別分布の差を克服するために, 対向雑音によるデータ増大が十分であることを示す。
IU X-RAYとMIMIC-CXRの放射線学データセットの実験は、攻撃者が医療データにアクセスせずに医療MLLMを盗むことができることを示した。
関連論文リスト
- MaskMedPaint: Masked Medical Image Inpainting with Diffusion Models for Mitigation of Spurious Correlations [13.599251610827539]
Masked Medical Image Inpainting (MaskMedPaint)
本研究では,テキスト・ツー・イメージ拡散モデルを用いて,対象領域にマッチする領域をキー分類領域外の領域に塗布することでトレーニング画像を強化するMasked Medical Image Inpainting (MaskMedPaint)を提案する。
我々はMaskMedPaintが、制限された未ラベルのターゲット画像から、自然(Waterbirds, iWildCam)と医学(ISIC 2018, Chest X-ray)のデータセットの両方を対象とするドメインの一般化を促進することを実証した。
論文 参考訳(メタデータ) (2024-11-16T03:23:06Z) - MediConfusion: Can you trust your AI radiologist? Probing the reliability of multimodal medical foundation models [20.781551849965357]
医用ビジュアル質問回答(VQA)ベンチマークデータセットであるMedConfusionを紹介した。
現状のモデルは、画像のペアによって容易に混同され、それ以外は視覚的に異なっており、医療専門家にとってはっきりと区別されている。
また、医療における信頼性が高く信頼性の高いMLLMの新しい世代の設計に役立つモデル失敗の共通パターンを抽出する。
論文 参考訳(メタデータ) (2024-09-23T18:59:37Z) - BAPLe: Backdoor Attacks on Medical Foundational Models using Prompt Learning [71.60858267608306]
医療基盤モデルはバックドア攻撃の影響を受けやすい。
本研究は,素早い学習期間中に医療基盤モデルにバックドアを埋め込む方法を紹介する。
我々の手法であるBAPLeは、ノイズトリガを調整するために最小限のデータサブセットしか必要とせず、テキストは下流のタスクにプロンプトする。
論文 参考訳(メタデータ) (2024-08-14T10:18:42Z) - Medical Unlearnable Examples: Securing Medical Data from Unauthorized Training via Sparsity-Aware Local Masking [24.850260039814774]
商用AIモデルのトレーニングのような、認可されていない使用の恐れは、研究者が貴重なデータセットを共有するのを妨げる。
本研究では,画像全体ではなく重要な画素領域を選択的に摂動するSALM法を提案する。
実験により,SALMは,異なるモデルの不正なトレーニングを効果的に防止し,従来のSoTAデータ保護手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T02:35:36Z) - MITS-GAN: Safeguarding Medical Imaging from Tampering with Generative Adversarial Networks [48.686454485328895]
本研究では,医療画像の改ざんを防止する新しいアプローチであるMITS-GANを紹介する。
このアプローチは、人間の目には知覚できない微調整された摂動を導入することで、攻撃者のCT-GANアーキテクチャの出力を妨害する。
CTスキャンによる実験結果から,MITS-GANの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-01-17T22:30:41Z) - Medical Report Generation based on Segment-Enhanced Contrastive
Representation Learning [39.17345313432545]
臓器, 異常, 骨等を分類するためのMSCL(医学画像とコントラスト学習)を提案する。
トレーニング中にターゲットとセマンティックに類似したレポートにより多くの重みを割り当てる教師付きコントラスト損失を導入する。
実験の結果,提案手法の有効性が示され,IU X線公開データセット上での最先端性能が得られた。
論文 参考訳(メタデータ) (2023-12-26T03:33:48Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Privacy-preserving Machine Learning for Medical Image Classification [0.0]
画像分類は、医療産業における機械学習(ML)の重要なユースケースである。
このような自動化システムを使用する場合、プライバシー上の懸念がある。
本研究では,胸部X線画像から肺炎の診断を行う医療画像分類問題の文脈において,これらの課題を解決することを目的とする。
論文 参考訳(メタデータ) (2021-08-29T10:50:18Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。