論文の概要: The Security of Deep Learning Defences for Medical Imaging
- arxiv url: http://arxiv.org/abs/2201.08661v1
- Date: Fri, 21 Jan 2022 12:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 14:59:10.980449
- Title: The Security of Deep Learning Defences for Medical Imaging
- Title(参考訳): 医用イメージングにおける深層学習防御の安全性
- Authors: Moshe Levy, Guy Amit, Yuval Elovici, Yisroel Mirsky
- Abstract要約: 攻撃者は、被害者の深層学習モデルを騙しながら、現状の5つのアートディフェンスを回避できることを示す。
1)システムのセキュリティを強化し,(2)デジタル署名を使用する。
- 参考スコア(独自算出の注目度): 36.060636819669604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has shown great promise in the domain of medical image
analysis. Medical professionals and healthcare providers have been adopting the
technology to speed up and enhance their work. These systems use deep neural
networks (DNN) which are vulnerable to adversarial samples; images with
imperceivable changes that can alter the model's prediction. Researchers have
proposed defences which either make a DNN more robust or detect the adversarial
samples before they do harm. However, none of these works consider an informed
attacker which can adapt to the defence mechanism. We show that an informed
attacker can evade five of the current state of the art defences while
successfully fooling the victim's deep learning model, rendering these defences
useless. We then suggest better alternatives for securing healthcare DNNs from
such attacks: (1) harden the system's security and (2) use digital signatures.
- Abstract(参考訳): 深層学習は医用画像分析の分野で大きな可能性を秘めている。
医療専門家や医療提供者は、仕事のスピードアップと強化のためにこの技術を採用してきた。
これらのシステムは、敵対的なサンプルに対して脆弱なディープニューラルネットワーク(DNN)を使用する。
研究者は、DNNをより堅牢にするか、敵のサンプルを損傷する前に検出する防衛法を提案している。
しかし、これらの研究のどれも、防御機構に適応できる情報攻撃を考慮していない。
攻撃者は、被害者の深層学習モデルを騙し、これらの防御を役に立たないようにしながら、現在の防御状態の5つを回避できることを示す。
そこで我々は,(1)システムのセキュリティを強化し,(2)デジタル署名を使用することで,医療用dnnを保護するためのより良い方法を提案する。
関連論文リスト
- Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks [0.0]
機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
近年の議論は、医療画像解析技術に対する敵対的攻撃が可能であることを示唆している。
医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
論文 参考訳(メタデータ) (2024-08-01T07:37:27Z) - Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks [0.548924822963045]
モデル盗難攻撃は知的財産の盗難や他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗難攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
我々は、シンプルで効果的で効率的な防衛代替案を提案する。
論文 参考訳(メタデータ) (2023-09-04T22:25:49Z) - ATWM: Defense against adversarial malware based on adversarial training [16.16005518623829]
ディープラーニングモデルは、敵のサンプル攻撃に対して脆弱である。
本稿では,対人訓練に基づく対人マルウェア防御手法を提案する。
本研究は,モデルの精度を低下させることなく,モデルの対角防御能力を向上できることを示す。
論文 参考訳(メタデータ) (2023-07-11T08:07:10Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Visually Adversarial Attacks and Defenses in the Physical World: A
Survey [27.40548512511512]
コンピュータビジョンにおける現在の敵攻撃は、それぞれの攻撃形態に応じてデジタル攻撃と物理的攻撃に分けられる。
本稿では,コンピュータビジョンにおける現在の身体的敵意攻撃と身体的敵意防御に対する調査を要約する。
論文 参考訳(メタデータ) (2022-11-03T09:28:45Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Jekyll: Attacking Medical Image Diagnostics using Deep Generative Models [8.853343040790795]
Jekyllは、患者のバイオメディカルイメージを入力として取得し、攻撃者選択病状態を示す新しい画像に変換する神経型転送フレームワークです。
これらの攻撃は、医療専門家とアルゴリズム検出スキームの両方を誤解させる結果となった。
また,jekyllが生成する画像を検出するための機械学習に基づく防御対策についても検討した。
論文 参考訳(メタデータ) (2021-04-05T18:23:36Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。