論文の概要: Detecting and Mitigating Adversarial Attacks on Deep Learning-Based MRI Reconstruction Without Any Retraining
- arxiv url: http://arxiv.org/abs/2501.01908v1
- Date: Fri, 03 Jan 2025 17:23:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 16:38:31.646576
- Title: Detecting and Mitigating Adversarial Attacks on Deep Learning-Based MRI Reconstruction Without Any Retraining
- Title(参考訳): 深層学習に基づくMRI画像再構成における逆行性攻撃の検出と緩和
- Authors: Mahdi Saberi, Chi Zhang, Mehmet Akcakaya,
- Abstract要約: 本稿では,MRI再建モデルに対する逆行性攻撃を再訓練せずに検出・緩和するための新しいアプローチを提案する。
我々の検出戦略は循環測定一貫性の考え方に基づいている。
提案手法は,異なるデータセット間での対向摂動の影響を著しく低減することを示す。
- 参考スコア(独自算出の注目度): 2.5943586090617377
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning (DL) methods, especially those based on physics-driven DL, have become the state-of-the-art for reconstructing sub-sampled magnetic resonance imaging (MRI) data. However, studies have shown that these methods are susceptible to small adversarial input perturbations, or attacks, resulting in major distortions in the output images. Various strategies have been proposed to reduce the effects of these attacks, but they require retraining and may lower reconstruction quality for non-perturbed/clean inputs. In this work, we propose a novel approach for detecting and mitigating adversarial attacks on MRI reconstruction models without any retraining. Our detection strategy is based on the idea of cyclic measurement consistency. The output of the model is mapped to another set of MRI measurements for a different sub-sampling pattern, and this synthesized data is reconstructed with the same model. Intuitively, without an attack, the second reconstruction is expected to be consistent with the first, while with an attack, disruptions are present. Subsequently, this idea is extended to devise a novel objective function, which is minimized within a small ball around the attack input for mitigation. Experimental results show that our method substantially reduces the impact of adversarial perturbations across different datasets, attack types/strengths and PD-DL networks, and qualitatively and quantitatively outperforms conventional mitigation methods that involve retraining.
- Abstract(参考訳): 深層学習(DL)法,特に物理駆動型DL法は,サブサンプル磁気共鳴画像(MRI)データを再構成するための最先端技術となっている。
しかし、これらの手法は小さな逆入力摂動や攻撃の影響を受けやすく、出力画像に大きな歪みが生じることが研究で示されている。
これらの攻撃の影響を軽減するために様々な戦略が提案されているが、再訓練が必要であり、非摂動/クリーン入力の再現品質を低下させる可能性がある。
本研究では,MRI再建モデルに対する敵攻撃を再訓練せずに検出・緩和するための新しいアプローチを提案する。
我々の検出戦略は循環測定一貫性の考え方に基づいている。
モデルの出力を異なるサブサンプリングパターンに対して別のMRI測定セットにマッピングし、この合成データを同じモデルで再構成する。
直感的には、攻撃なしでは、第2の再構築は第1の再構築と整合すると予想され、一方攻撃では破壊が生じる。
その後、このアイデアを拡張して、攻撃入力の周囲の小さな球内で最小化して緩和する新たな目的関数を考案する。
実験の結果,本手法は,異なるデータセット,攻撃タイプ/強度,PD-DLネットワークに対する対向的摂動の影響を大幅に低減し,再訓練を含む従来の緩和手法を質的に定量的に上回ることを示した。
関連論文リスト
- Investigating Privacy Leakage in Dimensionality Reduction Methods via Reconstruction Attack [0.0]
我々は,低次元埋め込みから高次元データを再構成できるニューラルネットワークを開発した。
我々は,PCA,スパースランダムプロジェクション (SRP), 多次元スケーリング (MDS), Isomap, t-SNE, UMAPの6つの一般的な次元削減手法を評価する。
論文 参考訳(メタデータ) (2024-08-30T09:40:52Z) - Data Reconstruction Attacks and Defenses: A Systematic Evaluation [27.34562026045369]
再構築攻撃と防御は、機械学習におけるデータ漏洩問題を理解する上で不可欠である。
本稿では,この問題を逆問題とみなし,理論的かつ体系的にデータ再構成攻撃を評価することを提案する。
本報告では, 従来の防衛手法の強みに対する理解を深める上で有効な, 強力な再建攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-13T05:06:34Z) - Black-box Adversarial Attacks against Dense Retrieval Models: A
Multi-view Contrastive Learning Method [115.29382166356478]
本稿では,敵探索攻撃(AREA)タスクを紹介する。
DRモデルは、DRモデルによって取得された候補文書の初期セットの外側にあるターゲット文書を取得するように、DRモデルを騙すことを目的としている。
NRM攻撃で報告された有望な結果は、DRモデルに一般化されない。
マルチビュー表現空間における対照的な学習問題として,DRモデルに対する攻撃を形式化する。
論文 参考訳(メタデータ) (2023-08-19T00:24:59Z) - Adversarial Robustness of MR Image Reconstruction under Realistic
Perturbations [40.35796592557175]
敵攻撃は、DLベースの再構築アルゴリズムの可能な障害モードと最悪のケースパフォーマンスを理解するための貴重なツールを提供する。
我々は,現在最先端のDLベースの再構築アルゴリズムが,関連する診断情報が失われる程度に,そのような摂動に非常に敏感であることを示す。
論文 参考訳(メタデータ) (2022-08-05T13:39:40Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Zero-Shot Self-Supervised Learning for MRI Reconstruction [4.542616945567623]
そこで本研究では,ゼロショット型自己教師型学習手法を提案する。
提案手法は、単一のスキャンから利用可能な測定値を3つの解離集合に分割する。
画像特性の異なるデータベース上に事前学習されたモデルが存在する場合,提案手法は変換学習と組み合わせることで,より高速な収束時間と計算複雑性の低減を実現することができることを示す。
論文 参考訳(メタデータ) (2021-02-15T18:34:38Z) - Exploiting epistemic uncertainty of the deep learning models to generate
adversarial samples [0.7734726150561088]
敵機械学習」は、新たな敵攻撃を考案し、より堅牢なアーキテクチャでこれらの攻撃を防御することを目的としている。
本研究では,モンテカルロ・ドロップアウトサンプリングから得られた定量的な疫学的不確実性について,敵対的攻撃目的に利用することを検討した。
提案手法により,攻撃成功率は82.59%から85.40%,82.86%から89.92%,88.06%から90.03%に向上した。
論文 参考訳(メタデータ) (2021-02-08T11:59:27Z) - Solving Inverse Problems With Deep Neural Networks -- Robustness
Included? [3.867363075280544]
近年の研究では、複数の画像再構成タスクにおけるディープニューラルネットワークの不安定性が指摘されている。
分類における敵対的攻撃と類似して、入力領域のわずかな歪みが深刻な成果物を生じさせる可能性が示された。
本稿では、未決定の逆問題を解決するためのディープラーニングベースのアルゴリズムの堅牢性について広範な研究を行うことにより、この懸念に新たな光を当てる。
論文 参考訳(メタデータ) (2020-11-09T09:33:07Z) - Adversarial Robust Training of Deep Learning MRI Reconstruction Models [0.0]
我々は、訓練されたディープラーニング再構築ネットワークの再構築が困難である小さな合成摂動を生成するために、敵攻撃を用いる。
次に、ロバストトレーニングを使用して、これらの小さな特徴に対するネットワークの感度を高め、その再構築を促進する。
再構成ネットワークにロバストトレーニングを導入することで,偽陰性特徴率を低減できることが実験的に示された。
論文 参考訳(メタデータ) (2020-10-30T19:26:14Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。