論文の概要: Robust Prototypical Few-Shot Organ Segmentation with Regularized
Neural-ODEs
- arxiv url: http://arxiv.org/abs/2208.12428v1
- Date: Fri, 26 Aug 2022 03:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:32:44.296515
- Title: Robust Prototypical Few-Shot Organ Segmentation with Regularized
Neural-ODEs
- Title(参考訳): 正則化ニューラルオードを用いたロバストな原型的少数ショット臓器分節
- Authors: Prashant Pandey, Mustafa Chasmai, Tanuj Sur, Brejesh Lall
- Abstract要約: 正規化原始型ニューラル正規微分方程式(R-PNODE)を提案する。
R-PNODEは、表現空間に近づくために同じクラスから機能をサポートし、クエリする。
R-PNODEは,これらの攻撃に対して,敵の強靭性を高めていることを示す。
- 参考スコア(独自算出の注目度): 10.054960979867584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the tremendous progress made by deep learning models in image
semantic segmentation, they typically require large annotated examples, and
increasing attention is being diverted to problem settings like Few-Shot
Learning (FSL) where only a small amount of annotation is needed for
generalisation to novel classes. This is especially seen in medical domains
where dense pixel-level annotations are expensive to obtain. In this paper, we
propose Regularized Prototypical Neural Ordinary Differential Equation
(R-PNODE), a method that leverages intrinsic properties of Neural-ODEs,
assisted and enhanced by additional cluster and consistency losses to perform
Few-Shot Segmentation (FSS) of organs. R-PNODE constrains support and query
features from the same classes to lie closer in the representation space
thereby improving the performance over the existing Convolutional Neural
Network (CNN) based FSS methods. We further demonstrate that while many
existing Deep CNN based methods tend to be extremely vulnerable to adversarial
attacks, R-PNODE exhibits increased adversarial robustness for a wide array of
these attacks. We experiment with three publicly available multi-organ
segmentation datasets in both in-domain and cross-domain FSS settings to
demonstrate the efficacy of our method. In addition, we perform experiments
with seven commonly used adversarial attacks in various settings to demonstrate
R-PNODE's robustness. R-PNODE outperforms the baselines for FSS by significant
margins and also shows superior performance for a wide array of attacks varying
in intensity and design.
- Abstract(参考訳): イメージセマンティックセグメンテーションにおけるディープラーニングモデルによる大きな進歩にもかかわらず、それらは通常、大きな注釈付き例を必要とし、新しいクラスに一般化するために少量のアノテーションしか必要としないFew-Shot Learning (FSL)のような問題設定に注目が移りつつある。
これは特に、ピクセルレベルの密接なアノテーションが入手に費用がかかる医療領域で顕著である。
本稿では,臓器のFew-Shot Segmentation(FSS)を実行するために,R-PNODE(Regularized Prototypeal Neural Ordinary Differential Equation)を提案する。
R-PNODEは、同じクラスからサポートとクエリを制限し、表現空間に近づくことで、既存の畳み込みニューラルネットワーク(CNN)ベースのFSSメソッドのパフォーマンスを改善する。
さらに,既存の深層cnnベースの手法の多くは,攻撃に対して極めて脆弱な傾向があるが,r-pnodeは,これらの攻撃の広い範囲において,攻撃的ロバスト性が高まることを実証する。
提案手法の有効性を実証するために,3つのマルチオーガンセグメンテーションデータセットをインドメインとクロスドメインのfss設定で実験した。
さらに,R-PNODEのロバスト性を示すため,様々な設定で7種類の敵攻撃実験を行った。
R-PNODEは、FSSのベースラインをかなりのマージンで上回り、強度と設計の異なる幅広い攻撃に対して優れた性能を示す。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Adversarially Robust Prototypical Few-shot Segmentation with Neural-ODEs [9.372231811393583]
データが十分に利用できない環境では、ほとんどショットの学習方法が採用されている。
ディープニューラルネットワークは敵の攻撃に弱いことが示されている。
医療領域において,少数ショットセグメンテーションモデルを逆向きに堅牢にするためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-10-07T10:00:45Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Learnable Multi-level Frequency Decomposition and Hierarchical Attention
Mechanism for Generalized Face Presentation Attack Detection [7.324459578044212]
顔提示攻撃検知(PAD)は多くの注目を集めており、顔認識システムを保護する上で重要な役割を果たしている。
両ストリーム畳み込みニューラルネットワーク(CNN)フレームワークを提案する。
ステップワイドアブレーション研究において提案したPAD法の設計を実証した。
論文 参考訳(メタデータ) (2021-09-16T13:06:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。