論文の概要: Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images
- arxiv url: http://arxiv.org/abs/2102.02885v1
- Date: Thu, 4 Feb 2021 20:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 17:02:00.720925
- Title: Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images
- Title(参考訳): MR画像を用いた腰椎椎間板形状再建のための畳み込みニューラルネットワークの逆ロバスト性検討
- Authors: Jiasong Chen, Linchen Qian, Timur Urakov, Weiyong Gu, Liang Liang
- Abstract要約: 本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.2809525640002362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning technologies using deep neural networks (DNNs), especially
convolutional neural networks (CNNs), have made automated, accurate, and fast
medical image analysis a reality for many applications, and some DNN-based
medical image analysis systems have even been FDA-cleared. Despite the
progress, challenges remain to build DNNs as reliable as human expert doctors.
It is known that DNN classifiers may not be robust to noises: by adding a small
amount of noise to an input image, a DNN classifier may make a wrong
classification of the noisy image (i.e., in-distribution adversarial sample),
whereas it makes the right classification of the clean image. Another issue is
caused by out-of-distribution samples that are not similar to any sample in the
training set. Given such a sample as input, the output of a DNN will become
meaningless. In this study, we investigated the in-distribution (IND) and
out-of-distribution (OOD) adversarial robustness of a representative CNN for
lumbar disk shape reconstruction from spine MR images. To study the
relationship between dataset size and robustness to IND adversarial attacks, we
used a data augmentation method to create training sets with different levels
of shape variations. We utilized the PGD-based algorithm for IND adversarial
attacks and extended it for OOD adversarial attacks to generate OOD adversarial
samples for model testing. The results show that IND adversarial training can
improve the CNN robustness to IND adversarial attacks, and larger training
datasets may lead to higher IND robustness. However, it is still a challenge to
defend against OOD adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)、特に畳み込みニューラルネットワーク(CNN)を用いた機械学習技術は、多くのアプリケーションにおいて、自動化され、正確で、高速な医療画像分析を実現している。
進歩にもかかわらず、人間の専門家の医師と同じくらい信頼できるDNNを構築することは依然として困難です。
入力画像に少量のノイズを加えることで、DNN分類器はノイズ画像の間違った分類(すなわち、分布内逆検サンプル)を行うのに対して、クリーン画像の正しい分類を行う。
もう1つの問題は、トレーニングセットのどのサンプルと似ていない分散サンプルによって引き起こされる。
入力のようなサンプルがあれば、DNNの出力は無意味になります。
本研究では、腰椎MRI画像から腰椎椎椎間板形状再建のための代表的なCNNの分布内(IND)および分布外(OOD)対比堅牢性について検討した。
データセットサイズとIND敵攻撃の堅牢性の関係を調べるために,データ拡張法を用いて,異なるレベルの形状変化のトレーニングセットを作成する。
我々は PGD をベースとした IND 逆数攻撃アルゴリズムを用いて OOD 逆数攻撃に拡張し, モデルテストのための OOD 逆数サンプルを生成する。
その結果,ind攻撃に対するcnnのロバスト性が向上し,さらに大きなトレーニングデータセットがindのロバスト性が向上する可能性が示唆された。
しかし、それはまだOODの敵対的な攻撃から防御する挑戦です。
関連論文リスト
- Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Adversarial Training Using Feedback Loops [1.6114012813668932]
ディープニューラルネットワーク(DNN)は、一般化性に制限があるため、敵の攻撃に非常に敏感である。
本稿では制御理論に基づく新しいロバスト化手法を提案する。
フィードバック制御アーキテクチャに基づく新しい逆行訓練アプローチは、フィードバックループ逆行訓練(FLAT)と呼ばれる。
論文 参考訳(メタデータ) (2023-08-23T02:58:02Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Detection of out-of-distribution samples using binary neuron activation
patterns [0.26249027950824505]
未確認入力を新しいものとして識別する能力は、自動運転車、無人航空機、ロボットなどの安全上重要な応用に不可欠である。
OODサンプルを検出するための既存のアプローチでは、DNNをブラックボックスとして扱い、出力予測の信頼性スコアを評価する。
本稿では,新しいOOD検出法を提案する。本手法は,ReLUアーキテクチャにおけるニューロン活性化パターン(NAP)の理論的解析に動機付けられている。
論文 参考訳(メタデータ) (2022-12-29T11:42:46Z) - Robust Sensible Adversarial Learning of Deep Neural Networks for Image
Classification [6.594522185216161]
直感的な対人学習を導入し、標準的な自然の正確さと頑健さの追求と相乗効果を実証する。
具体的には、より自然な精度を維持しながら頑健なモデルを学ぶのに有用な、合理的な敵を定義する。
暗黙の損失トランケーションを用いてロバストモデルをトレーニングする,新しい,効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-20T22:57:44Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。