論文の概要: The Hidden Adversarial Vulnerabilities of Medical Federated Learning
- arxiv url: http://arxiv.org/abs/2310.13893v1
- Date: Sat, 21 Oct 2023 02:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:38:54.560573
- Title: The Hidden Adversarial Vulnerabilities of Medical Federated Learning
- Title(参考訳): 医学フェデレーション学習における隠れた敵対的脆弱性
- Authors: Erfan Darzi, Florian Dubost, Nanna. M. Sijtsema, P.M.A van Ooijen
- Abstract要約: 以前のグローバルモデル更新からの勾配情報を使用することで、敵は攻撃の効率性と転送可能性を高めることができる。
我々の発見は、連邦医療環境におけるAIセキュリティの理解を再考する必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 1.604444445227806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we delve into the susceptibility of federated medical image
analysis systems to adversarial attacks. Our analysis uncovers a novel
exploitation avenue: using gradient information from prior global model
updates, adversaries can enhance the efficiency and transferability of their
attacks. Specifically, we demonstrate that single-step attacks (e.g. FGSM),
when aptly initialized, can outperform the efficiency of their iterative
counterparts but with reduced computational demand. Our findings underscore the
need to revisit our understanding of AI security in federated healthcare
settings.
- Abstract(参考訳): 本稿では,連合医療画像解析システムの敵攻撃に対する感受性について検討する。
先行するグローバルモデル更新からの勾配情報を利用することで、敵は攻撃の効率と転送可能性を高めることができる。
具体的には,一段階攻撃(例えば,fgsm)を適度に初期化することで,反復攻撃の効率を上回ることができるが,計算能力は低下することを示した。
我々の発見は、連邦医療環境におけるAIセキュリティの理解を再考する必要性を浮き彫りにしている。
関連論文リスト
- Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks [0.0]
機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
近年の議論は、医療画像解析技術に対する敵対的攻撃が可能であることを示唆している。
医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
論文 参考訳(メタデータ) (2024-08-01T07:37:27Z) - Exploring adversarial attacks in federated learning for medical imaging [1.604444445227806]
Federated Learningは、医療画像分析のためのプライバシー保護フレームワークを提供するが、敵の攻撃に対してシステムを公開している。
本稿では,このような攻撃に対する医療画像解析において,フェデレーション学習ネットワークの脆弱性を評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-10T00:39:58Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - On enhancing the robustness of Vision Transformers: Defensive Diffusion [0.0]
SOTAビジョンモデルであるViTは、大量の患者データをトレーニングに頼っている。
敵はViTの脆弱性を利用して機密情報を抽出し、患者のプライバシーを侵害する可能性がある。
この研究は、医療応用におけるViTの信頼性と信頼性を確保するために、これらの脆弱性に対処する。
論文 参考訳(メタデータ) (2023-05-14T00:17:33Z) - Probabilistic Categorical Adversarial Attack & Adversarial Training [45.458028977108256]
敵対的な例の存在は、人々が安全クリティカルなタスクにディープニューラルネットワーク(DNN)を適用することに大きな懸念をもたらします。
分類データを用いて敵の例を生成する方法は重要な問題であるが、広範囲にわたる探索が欠如している。
本稿では,離散最適化問題を連続的な問題に変換する確率的カテゴリー逆攻撃(PCAA)を提案する。
論文 参考訳(メタデータ) (2022-10-17T19:04:16Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack Driven Data Augmentation for Accurate And Robust
Medical Image Segmentation [0.0]
本稿では,対戦型学習攻撃手法を導入することで,新たな拡張手法を提案する。
また、データ拡張のためのFGSMとは逆の方式で機能する逆FGSMの概念も導入した。
実験の総合的な分析は、頑健さの強化とともに、敵対的機械学習の新たな利用を示唆している。
論文 参考訳(メタデータ) (2021-05-25T17:44:19Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。