論文の概要: Assessing Risk of Stealing Proprietary Models for Medical Imaging Tasks
- arxiv url: http://arxiv.org/abs/2506.19464v1
- Date: Tue, 24 Jun 2025 09:46:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.574785
- Title: Assessing Risk of Stealing Proprietary Models for Medical Imaging Tasks
- Title(参考訳): 医用画像タスクにおけるステアリングプロプライエタリモデルのリスク評価
- Authors: Ankita Raj, Harsh Swaika, Deepankar Varma, Chetan Arora,
- Abstract要約: 本稿では,ブラックボックス医療画像モデルの盗難攻撃モデルに対する脆弱性について検討する。
我々は,公開データセットを使うことで,敵がMS攻撃を効果的に実行できることを実証する。
我々は,クエリ予算に制限のあるMS能力を向上させるために,QueryWiseと呼ばれる2段階のモデルステルス手法を提案する。
- 参考スコア(独自算出の注目度): 5.34146886237413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of deep learning in medical imaging applications has led several companies to deploy proprietary models in diagnostic workflows, offering monetized services. Even though model weights are hidden to protect the intellectual property of the service provider, these models are exposed to model stealing (MS) attacks, where adversaries can clone the model's functionality by querying it with a proxy dataset and training a thief model on the acquired predictions. While extensively studied on general vision tasks, the susceptibility of medical imaging models to MS attacks remains inadequately explored. This paper investigates the vulnerability of black-box medical imaging models to MS attacks under realistic conditions where the adversary lacks access to the victim model's training data and operates with limited query budgets. We demonstrate that adversaries can effectively execute MS attacks by using publicly available datasets. To further enhance MS capabilities with limited query budgets, we propose a two-step model stealing approach termed QueryWise. This method capitalizes on unlabeled data obtained from a proxy distribution to train the thief model without incurring additional queries. Evaluation on two medical imaging models for Gallbladder Cancer and COVID-19 classification substantiates the effectiveness of the proposed attack. The source code is available at https://github.com/rajankita/QueryWise.
- Abstract(参考訳): 医療画像アプリケーションにおけるディープラーニングの成功により、いくつかの企業が独自のモデルを診断ワークフローにデプロイし、収益化サービスを提供している。
モデルウェイトはサービスプロバイダの知的プロパティを保護するために隠されているが、これらのモデルはモデルステルス(MS)攻撃に晒されている。
一般的な視覚タスクについて広く研究されているが、医療画像モデルのMS攻撃に対する感受性はいまだに不十分である。
本稿では,被害者モデルのトレーニングデータにアクセスできない現実的な条件下でのMS攻撃に対するブラックボックス医療画像モデルの脆弱性について検討し,限られたクエリ予算で運用する。
我々は,公開データセットを使うことで,敵がMS攻撃を効果的に実行できることを実証する。
クエリ予算が制限されたMS機能をさらに強化するため、QueryWiseと呼ばれる2段階のモデルステイリングアプローチを提案する。
この方法は、プロキシ分布から得られたラベルのないデータを利用して、追加のクエリを発生させることなく、泥棒モデルを訓練する。
胆嚢癌と新型コロナウイルスの分類のための2つの医療画像モデルの評価は、提案された攻撃の有効性を裏付けるものである。
ソースコードはhttps://github.com/rajankita/QueryWise.comで入手できる。
関連論文リスト
- Explore the vulnerability of black-box models via diffusion models [12.444628438522702]
本研究では,アタッカーが拡散モデルAPIを利用して合成画像を生成するという,新たなセキュリティ脅威を明らかにする。
これにより、攻撃者はブラックボックス分類モデルに対するモデル抽出と転送ベースの敵攻撃を実行することができる。
本手法は,クエリ予算の0.01倍しか使用せず,最先端の手法よりも平均27.37%向上していることを示す。
論文 参考訳(メタデータ) (2025-06-09T09:36:31Z) - Where's the liability in the Generative Era? Recovery-based Black-Box Detection of AI-Generated Content [42.68683643671603]
APIアクセスのみを必要とする新しいブラックボックス検出フレームワークを導入する。
画像がモデル自身によって生成された可能性を測定する。
マスクされた画像入力をサポートしないブラックボックスモデルに対して、ターゲットモデル分布に適合するように訓練された費用効率の良い代理モデルを導入する。
論文 参考訳(メタデータ) (2025-05-02T05:11:35Z) - Model-Guardian: Protecting against Data-Free Model Stealing Using Gradient Representations and Deceptive Predictions [5.6731655991880965]
モデル盗難は、クラウドにデプロイされた機械学習モデルの機密性をますます脅かしている。
本稿では,Model-Guardianという新しい防衛フレームワークを紹介する。
合成試料のアーティファクト特性と試料の勾配表現の助けを借りて、現在の防御の欠点に対処するように設計されている。
論文 参考訳(メタデータ) (2025-03-23T14:14:36Z) - Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment [79.41098832007819]
医療マルチモーダル大言語モデル(MLLM)は医療システムにおいて重要な要素となっている。
医療データはプライバシー規制によって保護されていないため、医療MLLMは貴重な知的財産である。
本稿では,医療MLLMに対する最初の盗難攻撃であるAdversarial Domain Alignment(ADA-STEAL)を紹介する。
論文 参考訳(メタデータ) (2025-02-04T16:04:48Z) - BAPLe: Backdoor Attacks on Medical Foundational Models using Prompt Learning [71.60858267608306]
医療基盤モデルはバックドア攻撃の影響を受けやすい。
本研究は,素早い学習期間中に医療基盤モデルにバックドアを埋め込む方法を紹介する。
我々の手法であるBAPLeは、ノイズトリガを調整するために最小限のデータサブセットしか必要とせず、テキストは下流のタスクにプロンプトする。
論文 参考訳(メタデータ) (2024-08-14T10:18:42Z) - DiffExplainer: Unveiling Black Box Models Via Counterfactual Generation [11.201840101870808]
ブラックボックスモデルに接続した場合に異なる決定を誘導する反ファクト画像を生成することができるエージェントモデルを提案する。
このエージェントモデルを用いることで、ブラックモデルの最終予測に影響を与える影響のあるイメージパターンを明らかにすることができる。
医療予後タスクの厳格な領域におけるアプローチの検証を行った。
論文 参考訳(メタデータ) (2024-06-21T14:27:02Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。