論文の概要: Continual Hippocampus Segmentation with Transformers
- arxiv url: http://arxiv.org/abs/2204.08043v1
- Date: Sun, 17 Apr 2022 16:13:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 01:49:46.643458
- Title: Continual Hippocampus Segmentation with Transformers
- Title(参考訳): 変圧器を用いた連続海馬セグメンテーション
- Authors: Amin Ranem, Camila Gonz\'alez, Anirban Mukhopadhyay
- Abstract要約: 取得条件や患者人口が経時的に変化する臨床環境では、深層ニューラルネットワークの安全な使用を確実にするための継続的な学習が鍵となる。
放射線学者は、Transformerベースのアーキテクチャが注目を集めている特定の関心領域を概説するセグメンテーションモデルを扱うことを好んでいる。
- 参考スコア(独自算出の注目度): 1.2020488155038649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In clinical settings, where acquisition conditions and patient populations
change over time, continual learning is key for ensuring the safe use of deep
neural networks. Yet most existing work focuses on convolutional architectures
and image classification. Instead, radiologists prefer to work with
segmentation models that outline specific regions-of-interest, for which
Transformer-based architectures are gaining traction. The self-attention
mechanism of Transformers could potentially mitigate catastrophic forgetting,
opening the way for more robust medical image segmentation. In this work, we
explore how recently-proposed Transformer mechanisms for semantic segmentation
behave in sequential learning scenarios, and analyse how best to adapt
continual learning strategies for this setting. Our evaluation on hippocampus
segmentation shows that Transformer mechanisms mitigate catastrophic forgetting
for medical image segmentation compared to purely convolutional architectures,
and demonstrates that regularising ViT modules should be done with caution.
- Abstract(参考訳): 取得条件と患者人口が経時的に変化する臨床環境では、深層ニューラルネットワークの安全な使用を保証するための継続的な学習が鍵となる。
しかし、既存の作品の多くは畳み込みアーキテクチャと画像分類に焦点を当てている。
その代わり、放射線科医は特定の関心領域を概説するセグメンテーションモデルに取り組み、トランスフォーマーベースのアーキテクチャが注目を集めている。
トランスフォーマーの自己保持メカニズムは、破滅的な忘れを軽減し、より堅牢な医療画像セグメンテーションへの道を開く可能性がある。
本研究では,最近提案されている意味セグメンテーション用トランスフォーマー機構が逐次学習シナリオにおいてどのように振る舞うかを検討し,この設定に連続学習戦略を適応させる最善の方法を分析する。
海馬セグメンテーションの評価では,トランスフォーマー機構は,純粋に畳み込み型アーキテクチャに比べて,医療画像セグメンテーションにおける破滅的忘れを軽減し,ViTモジュールの正規化には注意が必要であることが示された。
関連論文リスト
- Surgical Scene Segmentation by Transformer With Asymmetric Feature Enhancement [7.150163844454341]
視覚特異的トランスフォーマー法は外科的シーン理解に有望な方法である。
非対称特徴拡張モジュール(TAFE)を用いたトランスフォーマーベースの新しいフレームワークを提案する。
提案手法は, 手術分割作業におけるSOTA法よりも優れており, さらに, 微細な構造認識の能力も証明している。
論文 参考訳(メタデータ) (2024-10-23T07:58:47Z) - Advancing Medical Image Segmentation: Morphology-Driven Learning with Diffusion Transformer [4.672688418357066]
本稿では,雑音の存在下での頑健なセグメンテーションのためのトランスフォーマー拡散(DTS)モデルを提案する。
画像の形態的表現を解析する本モデルでは, 種々の医用画像モダリティにおいて, 従来のモデルよりも良好な結果が得られた。
論文 参考訳(メタデータ) (2024-08-01T07:35:54Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - TransNorm: Transformer Provides a Strong Spatial Normalization Mechanism
for a Deep Segmentation Model [4.320393382724066]
畳み込みニューラルネットワーク(CNN)は、医療画像処理時代の主流技術である。
本稿では,Transformerモジュールをエンコーダとスキップ接続の両方に統合する,新しいディープセグメンテーションフレームワークであるTrans-Normを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:54:10Z) - Transformer based Generative Adversarial Network for Liver Segmentation [4.317557160310758]
本稿では,Transformer(s) とGenerative Adversarial Network (GAN) を組み合わせたハイブリッドアプローチを用いた新しいセグメンテーション手法を提案する。
我々のモデルは高いダイス係数0.9433、リコール0.9515、精度0.9376、その他のトランスフォーマーベースアプローチより優れていた。
論文 参考訳(メタデータ) (2022-05-21T19:55:43Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。