論文の概要: Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks
- arxiv url: http://arxiv.org/abs/2408.00348v2
- Date: Sat, 19 Oct 2024 19:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 13:29:21.964728
- Title: Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks
- Title(参考訳): 医用画像診断の安全性:AI耐性攻撃の詳細な分析
- Authors: Angona Biswas, MD Abdullah Al Nasim, Kishor Datta Gupta, Roy George, Abdur Rashid,
- Abstract要約: 機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
近年の議論は、医療画像解析技術に対する敵対的攻撃が可能であることを示唆している。
医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Machine learning (ML) is a rapidly developing area of medicine that uses significant resources to apply computer science and statistics to medical issues. ML's proponents laud its capacity to handle vast, complicated, and erratic medical data. It's common knowledge that attackers might cause misclassification by deliberately creating inputs for machine learning classifiers. Research on adversarial examples has been extensively conducted in the field of computer vision applications. Healthcare systems are thought to be highly difficult because of the security and life-or-death considerations they include, and performance accuracy is very important. Recent arguments have suggested that adversarial attacks could be made against medical image analysis (MedIA) technologies because of the accompanying technology infrastructure and powerful financial incentives. Since the diagnosis will be the basis for important decisions, it is essential to assess how strong medical DNN tasks are against adversarial attacks. Simple adversarial attacks have been taken into account in several earlier studies. However, DNNs are susceptible to more risky and realistic attacks. The present paper covers recent proposed adversarial attack strategies against DNNs for medical imaging as well as countermeasures. In this study, we review current techniques for adversarial imaging attacks, detections. It also encompasses various facets of these techniques and offers suggestions for the robustness of neural networks to be improved in the future.
- Abstract(参考訳): 機械学習(ML)は、コンピュータ科学と統計学を医療問題に適用するために重要な資源を使用する、急速に発展する医学分野である。
MLの支持者たちは、膨大な、複雑で、不安定な医療データを扱う能力を誇示している。
機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
コンピュータビジョン応用の分野では、敵の例の研究が盛んに行われている。
医療システムは、それらが含むセキュリティや生命・死の考慮から非常に困難であると考えられており、パフォーマンスの正確性は非常に重要である。
近年の議論は、医療画像分析(MedIA)技術に対する敵対的な攻撃は、技術基盤と強力な金融インセンティブが伴うことによる可能性があることを示唆している。
診断は重要な決定の基盤となるため、医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
いくつかの初期の研究では、単純な敵対攻撃が考慮されている。
しかし、DNNはより危険で現実的な攻撃を受けやすい。
本稿では,医療画像と対策のためのDNNに対する最近提案された敵攻撃戦略について述べる。
本研究では, 敵画像攻撃, 検出技術について概説する。
また、これらのテクニックのさまざまな側面を包含し、将来改善されるニューラルネットワークの堅牢性を提案する。
関連論文リスト
- DFT-Based Adversarial Attack Detection in MRI Brain Imaging: Enhancing Diagnostic Accuracy in Alzheimer's Case Studies [0.5249805590164902]
医療画像に対する敵対的な攻撃は、疾患の診断において誤分類を引き起こし、深刻な結果をもたらす可能性がある。
本研究では,アルツハイマー病関連画像に対する敵対的攻撃について検討し,これらの攻撃に対する防御方法を提案する。
提案手法では,畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダアーキテクチャと2次元フーリエ変換を併用して検出を行う。
論文 参考訳(メタデータ) (2024-08-16T02:18:23Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Adversarial Attacks and Defences for Skin Cancer Classification [0.0]
このようなシステムの利用の増加は、医療業界で見ることができる。
このようなシステムの脆弱性を理解することがますます重要になっている。
本稿では,一般的な対人攻撃手法について検討する。
論文 参考訳(メタデータ) (2022-12-13T18:58:21Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - The Security of Deep Learning Defences for Medical Imaging [36.060636819669604]
攻撃者は、被害者の深層学習モデルを騙しながら、現状の5つのアートディフェンスを回避できることを示す。
1)システムのセキュリティを強化し,(2)デジタル署名を使用する。
論文 参考訳(メタデータ) (2022-01-21T12:11:17Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Defending against adversarial attacks on medical imaging AI system,
classification or detection? [18.92197034672677]
半スーパービジョン・ディバイザ・トレーニング(SSAT)と非教師付きディバイザ・ディテクト(UAD)に基づく新しい堅牢な医用画像AIフレームワークを提案する。
我々は、対戦型攻撃の多様な現実的な設定の下で、既存の敵防衛技術よりも堅牢な医用画像AIシステムの利点を実証する。
論文 参考訳(メタデータ) (2020-06-24T08:26:49Z) - A Thorough Comparison Study on Adversarial Attacks and Defenses for
Common Thorax Disease Classification in Chest X-rays [63.675522663422896]
胸部X線に対する各種対向攻撃法と防御法について検討した。
攻撃法と防御法は過度な反復と大きな摂動で性能が劣ることがわかった。
異なる摂動度に頑健な新しい防御法を提案する。
論文 参考訳(メタデータ) (2020-03-31T06:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。