論文の概要: DFT-Based Adversarial Attack Detection in MRI Brain Imaging: Enhancing Diagnostic Accuracy in Alzheimer's Case Studies
- arxiv url: http://arxiv.org/abs/2408.08489v1
- Date: Fri, 16 Aug 2024 02:18:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:50:01.716964
- Title: DFT-Based Adversarial Attack Detection in MRI Brain Imaging: Enhancing Diagnostic Accuracy in Alzheimer's Case Studies
- Title(参考訳): MRI脳画像におけるDFTによる逆方向検出:アルツハイマー症例における診断精度の向上
- Authors: Mohammad Hossein Najafi, Mohammad Morsali, Mohammadmahdi Vahediahmar, Saeed Bagheri Shouraki,
- Abstract要約: 医療画像に対する敵対的な攻撃は、疾患の診断において誤分類を引き起こし、深刻な結果をもたらす可能性がある。
本研究では,アルツハイマー病関連画像に対する敵対的攻撃について検討し,これらの攻撃に対する防御方法を提案する。
提案手法では,畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダアーキテクチャと2次元フーリエ変換を併用して検出を行う。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in deep learning, particularly in medical imaging, have significantly propelled the progress of healthcare systems. However, examining the robustness of medical images against adversarial attacks is crucial due to their real-world applications and profound impact on individuals' health. These attacks can result in misclassifications in disease diagnosis, potentially leading to severe consequences. Numerous studies have explored both the implementation of adversarial attacks on medical images and the development of defense mechanisms against these threats, highlighting the vulnerabilities of deep neural networks to such adversarial activities. In this study, we investigate adversarial attacks on images associated with Alzheimer's disease and propose a defensive method to counteract these attacks. Specifically, we examine adversarial attacks that employ frequency domain transformations on Alzheimer's disease images, along with other well-known adversarial attacks. Our approach utilizes a convolutional neural network (CNN)-based autoencoder architecture in conjunction with the two-dimensional Fourier transform of images for detection purposes. The simulation results demonstrate that our detection and defense mechanism effectively mitigates several adversarial attacks, thereby enhancing the robustness of deep neural networks against such vulnerabilities.
- Abstract(参考訳): 近年の深層学習,特に医用画像の進歩は,医療システムの進歩を著しく促進している。
しかし,医療画像の対人攻撃に対する堅牢性を検討することは,現実の応用と個人の健康への影響が大きいため重要である。
これらの攻撃は疾患の診断における誤分類を引き起こし、深刻な結果をもたらす可能性がある。
医療画像に対する敵対的攻撃の実施と、これらの脅威に対する防御機構の開発の両方について多くの研究が行われており、このような敵対的活動に対するディープニューラルネットワークの脆弱性が強調されている。
本研究では,アルツハイマー病関連画像に対する敵対的攻撃について検討し,これらの攻撃に対する防御方法を提案する。
具体的には、アルツハイマー病の画像に周波数領域変換を用いる敵攻撃と、他のよく知られた敵攻撃について検討する。
提案手法では,畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダアーキテクチャと2次元フーリエ変換を併用して検出を行う。
シミュレーションの結果、我々の検出と防御機構は、いくつかの敵攻撃を効果的に軽減し、そのような脆弱性に対するディープニューラルネットワークの堅牢性を高めることが示されている。
関連論文リスト
- Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Exploring adversarial attacks in federated learning for medical imaging [1.604444445227806]
Federated Learningは、医療画像分析のためのプライバシー保護フレームワークを提供するが、敵の攻撃に対してシステムを公開している。
本稿では,このような攻撃に対する医療画像解析において,フェデレーション学習ネットワークの脆弱性を評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-10T00:39:58Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Adversarial Training for Deep Learning-based Intrusion Detection Systems [0.0]
本稿では,敵対攻撃が深層学習に基づく侵入検出に及ぼす影響について検討する。
十分な歪みを伴って、敵の例は検出器を誤解させ、敵の訓練を用いることで侵入検知の堅牢性を向上させることができる。
論文 参考訳(メタデータ) (2021-04-20T09:36:24Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。