論文の概要: Adversarial Robustness of MR Image Reconstruction under Realistic
Perturbations
- arxiv url: http://arxiv.org/abs/2208.03161v1
- Date: Fri, 5 Aug 2022 13:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 13:04:04.339706
- Title: Adversarial Robustness of MR Image Reconstruction under Realistic
Perturbations
- Title(参考訳): 現実的摂動下におけるMR画像再構成の対向的ロバスト性
- Authors: Jan Nikolas Morshuis and Sergios Gatidis and Matthias Hein and
Christian F. Baumgartner
- Abstract要約: 敵攻撃は、DLベースの再構築アルゴリズムの可能な障害モードと最悪のケースパフォーマンスを理解するための貴重なツールを提供する。
我々は,現在最先端のDLベースの再構築アルゴリズムが,関連する診断情報が失われる程度に,そのような摂動に非常に敏感であることを示す。
- 参考スコア(独自算出の注目度): 40.35796592557175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) methods have shown promising results for solving ill-posed
inverse problems such as MR image reconstruction from undersampled $k$-space
data. However, these approaches currently have no guarantees for reconstruction
quality and the reliability of such algorithms is only poorly understood.
Adversarial attacks offer a valuable tool to understand possible failure modes
and worst case performance of DL-based reconstruction algorithms. In this paper
we describe adversarial attacks on multi-coil $k$-space measurements and
evaluate them on the recently proposed E2E-VarNet and a simpler UNet-based
model. In contrast to prior work, the attacks are targeted to specifically
alter diagnostically relevant regions. Using two realistic attack models
(adversarial $k$-space noise and adversarial rotations) we are able to show
that current state-of-the-art DL-based reconstruction algorithms are indeed
sensitive to such perturbations to a degree where relevant diagnostic
information may be lost. Surprisingly, in our experiments the UNet and the more
sophisticated E2E-VarNet were similarly sensitive to such attacks. Our findings
add further to the evidence that caution must be exercised as DL-based methods
move closer to clinical practice.
- Abstract(参考訳): 深層学習(DL)法は,アンサンプ付き$k$-spaceデータからMR画像再構成などの不適切な逆問題を解決するための有望な結果を示している。
しかし、これらのアプローチは現在、復元品質の保証がなく、そのようなアルゴリズムの信頼性は不十分にしか理解されていない。
逆攻撃は、dlベースのリコンストラクションアルゴリズムの起こりうる障害モードと最悪の場合のパフォーマンスを理解するための貴重なツールを提供する。
本稿では,マルチコイル$k$-space測定に対する敵攻撃について述べるとともに,最近提案されたE2E-VarNetと,より単純なUNetモデルを用いて評価する。
以前の作業とは対照的に、これらの攻撃は診断に関連する領域を特異的に変更することを目的としている。
2つの現実的な攻撃モデル(対数$k$スペースノイズと対数回転)を用いて、現在最先端のDLベースの再構成アルゴリズムは、関連する診断情報が失われる程度に、実際にそのような摂動に敏感であることを示すことができる。
驚いたことに、我々の実験では、UNetとより洗練されたE2E-VarNetは同様の攻撃に敏感でした。
また,DL法が臨床実践に近づくにつれて,注意が必要であるという証拠も得られた。
関連論文リスト
- Perturb, Attend, Detect and Localize (PADL): Robust Proactive Image Defense [5.150608040339816]
本稿では,クロスアテンションに基づく符号化と復号の対称スキームを用いて,画像固有の摂動を生成する新しいソリューションであるPADLを紹介する。
提案手法は,StarGANv2,BlendGAN,DiffAE,StableDiffusion,StableDiffusionXLなど,さまざまなアーキテクチャ設計の未確認モデルに一般化する。
論文 参考訳(メタデータ) (2024-09-26T15:16:32Z) - Evaluating Adversarial Robustness of Low dose CT Recovery [15.436044993406966]
低線量CT回復のための異なる深層学習手法と古典的手法のロバスト性を評価する。
データ一貫性を奨励するモデルベースネットワークを含むディープネットワークは、未ターゲティング攻撃の影響を受けやすいことを示す。
結果として得られた再構成は、元の測定値と高いデータ整合性を持つため、これらの局所攻撃は、CT回復問題の解空間を探索するために使用できる。
論文 参考訳(メタデータ) (2024-02-18T11:57:01Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z) - Improving Robustness of Deep-Learning-Based Image Reconstruction [24.882806652224854]
逆問題解法では, 測定空間における敵の効果を分析し, 研究する必要がある。
本稿では,高機能な画像再構成ネットワークを構築するために,min-maxの定式化に使用される逆例を生成する補助ネットワークを提案する。
提案したmin-max学習方式を用いた線形ネットワークは,実際に同じ解に収束する。
論文 参考訳(メタデータ) (2020-02-26T22:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。