論文の概要: Preventing Unauthorized AI Over-Analysis by Medical Image Adversarial
Watermarking
- arxiv url: http://arxiv.org/abs/2303.09858v3
- Date: Thu, 14 Sep 2023 03:37:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 19:20:55.853502
- Title: Preventing Unauthorized AI Over-Analysis by Medical Image Adversarial
Watermarking
- Title(参考訳): 医用画像adversarial watermarkingによるai過剰解析の防止
- Authors: Xingxing Wei, Bangzheng Pu, Shiji Zhao, Chen Chi and Huazhu Fu
- Abstract要約: 医用画像適応型透かし(MIAD-MARK)という先駆的手法を提案する。
提案手法では,不許可なAI診断モデルを戦略的に誤解させ,視覚的コンテンツの完全性を損なうことなく誤った予測を誘導する透かしを導入している。
本手法は,高度な透かし除去網が存在する場合でも,医用画像の不正利用を効果的に軽減する。
- 参考スコア(独自算出の注目度): 43.17275405041853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of deep learning has facilitated the integration of
Artificial Intelligence (AI) into clinical practices, particularly in
computer-aided diagnosis. Given the pivotal role of medical images in various
diagnostic procedures, it becomes imperative to ensure the responsible and
secure utilization of AI techniques. However, the unauthorized utilization of
AI for image analysis raises significant concerns regarding patient privacy and
potential infringement on the proprietary rights of data custodians.
Consequently, the development of pragmatic and cost-effective strategies that
safeguard patient privacy and uphold medical image copyrights emerges as a
critical necessity. In direct response to this pressing demand, we present a
pioneering solution named Medical Image Adversarial watermarking (MIAD-MARK).
Our approach introduces watermarks that strategically mislead unauthorized AI
diagnostic models, inducing erroneous predictions without compromising the
integrity of the visual content. Importantly, our method integrates an
authorization protocol tailored for legitimate users, enabling the removal of
the MIAD-MARK through encryption-generated keys. Through extensive experiments,
we validate the efficacy of MIAD-MARK across three prominent medical image
datasets. The empirical outcomes demonstrate the substantial impact of our
approach, notably reducing the accuracy of standard AI diagnostic models to a
mere 8.57% under white box conditions and 45.83% in the more challenging black
box scenario. Additionally, our solution effectively mitigates unauthorized
exploitation of medical images even in the presence of sophisticated watermark
removal networks. Notably, those AI diagnosis networks exhibit a meager average
accuracy of 38.59% when applied to images protected by MIAD-MARK, underscoring
the robustness of our safeguarding mechanism.
- Abstract(参考訳): ディープラーニングの進歩は、特にコンピュータ支援診断において、人工知能(AI)を臨床実践に統合することを促進する。
様々な診断手順における医用画像の重要な役割を考えると、AI技術の責任と安全性を確保することが不可欠となる。
しかし、画像解析におけるAIの不正利用は、患者のプライバシとデータカストディアンのプロプライエタリな権利に対する潜在的侵害に関する重大な懸念を引き起こす。
その結果、患者のプライバシを守り、医療画像著作権を擁護する実用的で費用対効果の高い戦略の開発が重要視される。
この要求に応えて,MIAD-MARK(Medical Image Adversarial Watermarking)という先駆的なソリューションを提案する。
提案手法では,不許可なAI診断モデルを戦略的に誤解させ,視覚的コンテンツの完全性を損なうことなく誤った予測を誘導する透かしを導入する。
重要な点として,本手法は正規ユーザに適した認証プロトコルを統合し,暗号生成キーによるMIAD-MARKの削除を可能にする。
3つの医用画像データセットに対してMIAD-MARKの有効性を検証した。
経験的な結果は、標準的なAI診断モデルの精度を、ホワイトボックスの条件下では8.57%、より困難なブラックボックスのシナリオでは45.83%に下げるという、私たちのアプローチの重大な影響を示している。
さらに,高度な透かし除去網が存在する場合でも,医療画像の不正利用を効果的に軽減する。
特に、これらのAI診断ネットワークは、MIAD-MARKによって保護された画像に適用された場合の平均精度が38.59%である。
関連論文リスト
- The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Medical Image Data Provenance for Medical Cyber-Physical System [8.554664822046966]
本研究では,画像にデバイス指紋(DFP)を埋め込むための透かし技術を提案する。
DFPは、キャプチャ装置のユニークな特性と生画像を表すもので、保存前に生画像に埋め込まれる。
相互接続型医療システムにおける医用画像データの整合性を高めるため、画像認証のために堅牢な遠隔検証手法が導入された。
論文 参考訳(メタデータ) (2024-03-22T13:24:44Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical
Network to Monitor and Detect COVID-19 Infection from Point-of-Care
Ultrasound Images [66.63200823918429]
COVID-Net USProは、最小限の超音波画像から高精度で新型コロナウイルス陽性の患者を監視し、検出する。
ネットワーク全体では99.65%の精度、99.7%のリコール、99.67%の精度で5発の撮影で訓練された。
論文 参考訳(メタデータ) (2023-01-04T16:05:51Z) - FUTURE-AI: Guiding Principles and Consensus Recommendations for Trustworthy Artificial Intelligence in Medical Imaging [6.099257839022179]
Future-AIフレームワークは、医療におけるAIの信頼性、安全性、採用を促進するための原則を導いてくれる。
我々は、Future-AIの一般的な医療原則を、医療画像コミュニティのニーズに合わせて、簡潔で具体的なAI実装ガイドに変換する。
論文 参考訳(メタデータ) (2021-09-20T16:22:49Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Collaborative Unsupervised Domain Adaptation for Medical Image Diagnosis [102.40869566439514]
我々は、Unsupervised Domain Adaptation (UDA)を通じて、対象タスクにおける学習を支援するために、関連ドメインからの豊富なラベル付きデータを活用しようとしている。
クリーンなラベル付きデータやサンプルを仮定するほとんどのUDAメソッドが等しく転送可能であるのとは異なり、協調的教師なしドメイン適応アルゴリズムを革新的に提案する。
提案手法の一般化性能を理論的に解析し,医用画像と一般画像の両方で実験的に評価する。
論文 参考訳(メタデータ) (2020-07-05T11:49:17Z) - Review of Artificial Intelligence Techniques in Imaging Data
Acquisition, Segmentation and Diagnosis for COVID-19 [71.41929762209328]
新型コロナウイルス感染症(COVID-19)のパンデミックは世界中に広がっている。
X線やCT(Computerd Tomography)などの医用画像は、世界的な新型コロナウイルス対策に欠かせない役割を担っている。
最近登場した人工知能(AI)技術は、画像ツールの力を強化し、医療専門家を支援する。
論文 参考訳(メタデータ) (2020-04-06T15:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。