論文の概要: Exploring adversarial attacks in federated learning for medical imaging
- arxiv url: http://arxiv.org/abs/2310.06227v1
- Date: Tue, 10 Oct 2023 00:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 02:05:05.072485
- Title: Exploring adversarial attacks in federated learning for medical imaging
- Title(参考訳): 医学画像のための連合学習における敵対的攻撃の探索
- Authors: Erfan Darzi, Florian Dubost, N.M. Sijtsema, P.M.A van Ooijen
- Abstract要約: Federated Learningは、医療画像分析のためのプライバシー保護フレームワークを提供するが、敵の攻撃に対してシステムを公開している。
本稿では,このような攻撃に対する医療画像解析において,フェデレーション学習ネットワークの脆弱性を評価することを目的とする。
- 参考スコア(独自算出の注目度): 1.604444445227806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning offers a privacy-preserving framework for medical image
analysis but exposes the system to adversarial attacks. This paper aims to
evaluate the vulnerabilities of federated learning networks in medical image
analysis against such attacks. Employing domain-specific MRI tumor and
pathology imaging datasets, we assess the effectiveness of known threat
scenarios in a federated learning environment. Our tests reveal that
domain-specific configurations can increase the attacker's success rate
significantly. The findings emphasize the urgent need for effective defense
mechanisms and suggest a critical re-evaluation of current security protocols
in federated medical image analysis systems.
- Abstract(参考訳): フェデレーション学習は、医療画像分析のためのプライバシー保護フレームワークを提供するが、システムを敵対的な攻撃に晒す。
本稿では,このような攻撃に対する医療画像解析において,フェデレーション学習ネットワークの脆弱性を評価することを目的とする。
ドメイン固有のMRI腫瘍と病理画像データセットを用いて,フェデレート学習環境における既知の脅威シナリオの有効性を評価する。
テストの結果、ドメイン固有の構成が攻撃者の成功率を大幅に向上させることがわかった。
本研究は, 効果的な防御機構の必要性を強調し, 医療画像解析システムにおける現行のセキュリティプロトコルの再評価を提案する。
関連論文リスト
- DFT-Based Adversarial Attack Detection in MRI Brain Imaging: Enhancing Diagnostic Accuracy in Alzheimer's Case Studies [0.5249805590164902]
医療画像に対する敵対的な攻撃は、疾患の診断において誤分類を引き起こし、深刻な結果をもたらす可能性がある。
本研究では,アルツハイマー病関連画像に対する敵対的攻撃について検討し,これらの攻撃に対する防御方法を提案する。
提案手法では,畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダアーキテクチャと2次元フーリエ変換を併用して検出を行う。
論文 参考訳(メタデータ) (2024-08-16T02:18:23Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - The Hidden Adversarial Vulnerabilities of Medical Federated Learning [1.604444445227806]
以前のグローバルモデル更新からの勾配情報を使用することで、敵は攻撃の効率性と転送可能性を高めることができる。
我々の発見は、連邦医療環境におけるAIセキュリティの理解を再考する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-21T02:21:39Z) - Fed-Safe: Securing Federated Learning in Healthcare Against Adversarial
Attacks [1.2277343096128712]
本稿では,医用画像解析におけるフェデレーション学習アプリケーションのセキュリティ面について検討する。
フェデレートされた設定におけるプライバシー保証を基礎として分散ノイズを組み込むことにより、逆向きに堅牢なモデルの開発が可能となることを示す。
論文 参考訳(メタデータ) (2023-10-12T19:33:53Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Evaluation of Inference Attack Models for Deep Learning on Medical Data [16.128164765752032]
最近開発された推論攻撃アルゴリズムは、画像とテキスト記録を悪意ある当事者によって再構成可能であることを示している。
これにより、機密性の高い患者情報を含む医療画像と電子健康記録がこれらの攻撃に対して脆弱であるという懸念が生じる。
本稿では,この重要な問題に対して,医学的深層学習コミュニティの研究者の関心を惹きつけることを目的とする。
論文 参考訳(メタデータ) (2020-10-31T03:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。