論文の概要: Large-kernel Attention for Efficient and Robust Brain Lesion
Segmentation
- arxiv url: http://arxiv.org/abs/2308.07251v1
- Date: Mon, 14 Aug 2023 16:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 12:26:17.588301
- Title: Large-kernel Attention for Efficient and Robust Brain Lesion
Segmentation
- Title(参考訳): 効率・ロバスト脳損傷分節に対する大カーネル注意
- Authors: Liam Chalcroft, Ruben Louren\c{c}o Pereira, Mikael Brudfors, Andrew S.
Kayser, Mark D'Esposito, Cathy J. Price, Ioannis Pappas, John Ashburner
- Abstract要約: 本稿では,U-Netアーキテクチャの完全畳み込み型トランスフォーマーブロックを提案する。
我々のモデルは,最先端技術との競争,CNNのパラメータ効率,変圧器の帰納バイアスの3つの要因において,最大の妥協を提供する。
- 参考スコア(独自算出の注目度): 0.08694241595813026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision transformers are effective deep learning models for vision tasks,
including medical image segmentation. However, they lack efficiency and
translational invariance, unlike convolutional neural networks (CNNs). To model
long-range interactions in 3D brain lesion segmentation, we propose an
all-convolutional transformer block variant of the U-Net architecture. We
demonstrate that our model provides the greatest compromise in three factors:
performance competitive with the state-of-the-art; parameter efficiency of a
CNN; and the favourable inductive biases of a transformer. Our public
implementation is available at https://github.com/liamchalcroft/MDUNet .
- Abstract(参考訳): ビジョントランスフォーマーは、医用画像セグメンテーションを含む視覚タスクのための効果的なディープラーニングモデルである。
しかし、畳み込みニューラルネットワーク(CNN)とは異なり、効率性と翻訳の不変性を欠いている。
3次元脳病変セグメンテーションにおける長距離相互作用をモデル化するために,u-netアーキテクチャの完全畳み込みトランスフォーマーブロックを提案する。
我々は,本モデルが最先端技術との競合性,CNNのパラメータ効率,変圧器の帰納バイアスの3つの要因において最大の妥協をもたらすことを示した。
公開実装はhttps://github.com/liamchalcroft/mdunetで利用可能です。
関連論文リスト
- E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation [36.367368163120794]
E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
論文 参考訳(メタデータ) (2023-12-07T22:13:37Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - Towards Optimal Patch Size in Vision Transformers for Tumor Segmentation [2.4540404783565433]
転移性大腸癌(mCRC)における腫瘍の検出は,肝癌の早期診断と治療において重要な役割を担っている。
完全畳み込みニューラルネットワーク(FCNN)によってバックボンドされたディープラーニングモデルは、3Dコンピュータ断層撮影(CT)スキャンのセグメンテーションにおいて支配的なモデルとなっている。
視覚変換器は、FCNNの受容野の局所性を解決するために導入された。
本稿では,転移病変の平均体積サイズに基づいて,視覚変換器の最適入力多重解像度画像パッチサイズを選択する手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T09:57:27Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Improving Across-Dataset Brain Tissue Segmentation Using Transformer [10.838458766450989]
本研究では,脳組織セグメンテーションのための新しいCNN-Transformerハイブリッドアーキテクチャを提案する。
我々は、4つのマルチサイトT1w MRIデータセットでモデルの性能を検証する。
論文 参考訳(メタデータ) (2022-01-21T15:16:39Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Conformer: Convolution-augmented Transformer for Speech Recognition [60.119604551507805]
最近、トランスフォーマーと畳み込みニューラルネットワーク(CNN)に基づくモデルが、自動音声認識(ASR)の有望な結果を示している。
音声認識のための畳み込み拡張変換器,Conformerを提案する。
広く使われているLibriSpeechベンチマークでは、言語モデルを用いずにWERが2.1%/4.3%、テスト/テストの外部言語モデルで1.9%/3.9%を達成した。
論文 参考訳(メタデータ) (2020-05-16T20:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。