論文の概要: Adversarially Robust Prototypical Few-shot Segmentation with Neural-ODEs
- arxiv url: http://arxiv.org/abs/2210.03429v1
- Date: Fri, 7 Oct 2022 10:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:08:18.011535
- Title: Adversarially Robust Prototypical Few-shot Segmentation with Neural-ODEs
- Title(参考訳): ニューラルネットワークを用いた逆ロバストなプロトタイプFew-shotセグメンテーション
- Authors: Prashant Pandey, Aleti Vardhan, Mustafa Chasmai, Tanuj Sur, Brejesh
Lall
- Abstract要約: データが十分に利用できない環境では、ほとんどショットの学習方法が採用されている。
ディープニューラルネットワークは敵の攻撃に弱いことが示されている。
医療領域において,少数ショットセグメンテーションモデルを逆向きに堅牢にするためのフレームワークを提供する。
- 参考スコア(独自算出の注目度): 9.372231811393583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot Learning (FSL) methods are being adopted in settings where data is
not abundantly available. This is especially seen in medical domains where the
annotations are expensive to obtain. Deep Neural Networks have been shown to be
vulnerable to adversarial attacks. This is even more severe in the case of FSL
due to the lack of a large number of training examples. In this paper, we
provide a framework to make few-shot segmentation models adversarially robust
in the medical domain where such attacks can severely impact the decisions made
by clinicians who use them. We propose a novel robust few-shot segmentation
framework, Prototypical Neural Ordinary Differential Equation (PNODE), that
provides defense against gradient-based adversarial attacks. We show that our
framework is more robust compared to traditional adversarial defense mechanisms
such as adversarial training. Adversarial training involves increased training
time and shows robustness to limited types of attacks depending on the type of
adversarial examples seen during training. Our proposed framework generalises
well to common adversarial attacks like FGSM, PGD and SMIA while having the
model parameters comparable to the existing few-shot segmentation models. We
show the effectiveness of our proposed approach on three publicly available
multi-organ segmentation datasets in both in-domain and cross-domain settings
by attacking the support and query sets without the need for ad-hoc adversarial
training.
- Abstract(参考訳): データが十分に利用できない環境では、FSL(Few-shot Learning)メソッドが採用されている。
これは特に、アノテーションが入手に費用がかかる医療領域で顕著である。
ディープニューラルネットワークは敵の攻撃に弱いことが示されている。
FSLの場合、多くのトレーニング例が欠如しているため、これはさらに深刻である。
本稿では,このような攻撃が臨床医の意思決定に深刻な影響を与える医療領域において,少数ショットセグメンテーションモデルを逆向きに堅牢にするための枠組みを提供する。
そこで我々は,勾配に基づく対角攻撃に対する防御を提供する,新しい頑健な数ショット分割フレームワークであるPNODEを提案する。
従来の対人防御機構である対人訓練と比較して,我々の枠組みはより堅牢であることを示す。
敵意トレーニングは、訓練時間の増加と、訓練中に見られる敵意の例の種類に応じて、限られた種類の攻撃に対する堅牢性を示す。
提案するフレームワークは,FGSM,PGD,SMIAなどの一般的な敵攻撃に対して,既存の数ショットセグメンテーションモデルに匹敵するモデルパラメータを持つ。
提案手法は,アドホックな対向学習を必要とせず,サポートとクエリ集合を攻撃することにより,ドメイン内とドメイン間の両方で利用可能な3つのマルチオーガンセグメンテーションデータセットの有効性を示す。
関連論文リスト
- Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - Robust Prototypical Few-Shot Organ Segmentation with Regularized
Neural-ODEs [10.054960979867584]
正規化原始型ニューラル正規微分方程式(R-PNODE)を提案する。
R-PNODEは、表現空間に近づくために同じクラスから機能をサポートし、クエリする。
R-PNODEは,これらの攻撃に対して,敵の強靭性を高めていることを示す。
論文 参考訳(メタデータ) (2022-08-26T03:53:04Z) - SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and
Boosting Segmentation Robustness [63.726895965125145]
ディープニューラルネットワークに基づく画像分類は、敵の摂動に弱い。
本研究では,SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃手法を提案する。
SegPGDはより効果的な敵の例を生成することができるため、SegPGDを用いた敵の訓練はセグメントモデルの堅牢性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T17:56:54Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Practical No-box Adversarial Attacks against DNNs [31.808770437120536]
我々は、攻撃者がモデル情報やトレーニングセットにアクセスしたり、モデルに問い合わせたりできない、ノンボックスの逆例を調査する。
非常に小さなデータセットでトレーニングを行うための3つのメカニズムを提案し、プロトタイプの再構築が最も効果的であることを示す。
提案手法は, システムの平均予測精度を15.40%に低下させ, 事前学習したArcfaceモデルから, 敵のサンプルを転送する攻撃と同等にする。
論文 参考訳(メタデータ) (2020-12-04T11:10:03Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。