論文の概要: Convolution-Free Medical Image Segmentation using Transformers
- arxiv url: http://arxiv.org/abs/2102.13645v1
- Date: Fri, 26 Feb 2021 18:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 17:36:06.762140
- Title: Convolution-Free Medical Image Segmentation using Transformers
- Title(参考訳): 変換器を用いた畳み込みフリー医用画像分割
- Authors: Davood Karimi, Serge Vasylechko, Ali Gholipour
- Abstract要約: 近接する画像パッチ間の自己注意に基づく別の手法が,競争的あるいはよりよい結果が得られることを示す。
提案モデルにより,3つのデータセット上でのCNNの状態よりも優れたセグメンテーション精度が得られることを示す。
- 参考スコア(独自算出の注目度): 8.130670465411239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Like other applications in computer vision, medical image segmentation has
been most successfully addressed using deep learning models that rely on the
convolution operation as their main building block. Convolutions enjoy
important properties such as sparse interactions, weight sharing, and
translation equivariance. These properties give convolutional neural networks
(CNNs) a strong and useful inductive bias for vision tasks. In this work we
show that a different method, based entirely on self-attention between
neighboring image patches and without any convolution operations, can achieve
competitive or better results. Given a 3D image block, our network divides it
into $n^3$ 3D patches, where $n=3 \text{ or } 5$ and computes a 1D embedding
for each patch. The network predicts the segmentation map for the center patch
of the block based on the self-attention between these patch embeddings. We
show that the proposed model can achieve segmentation accuracies that are
better than the state of the art CNNs on three datasets. We also propose
methods for pre-training this model on large corpora of unlabeled images. Our
experiments show that with pre-training the advantage of our proposed network
over CNNs can be significant when labeled training data is small.
- Abstract(参考訳): コンピュータビジョンの他のアプリケーションと同様に、医療画像セグメンテーションは、畳み込み操作を主なビルディングブロックとして依存するディープラーニングモデルを使用して最もうまく対処されています。
畳み込みは、疎相互作用、重み共有、翻訳等分散といった重要な特性を享受する。
これらの特性は、畳み込みニューラルネットワーク(CNN)に視覚タスクのための強力で有用な誘導バイアスを与える。
本研究では,隣り合う画像パッチ間の自己照合と畳み込み操作を伴わない異なる手法が,競争的あるいはよりよい結果が得られることを示す。
3Dイメージブロックを付与すると、ネットワークはそれを$n^3$ 3Dパッチに分割し、$n=3 \text{ or } 5$で各パッチの1D埋め込みを計算します。
ネットワークは、これらのパッチ埋め込み間の自己注意に基づいて、ブロックの中心パッチのセグメンテーションマップを予測する。
提案モデルにより,3つのデータセット上でのCNNの状態よりも優れたセグメンテーション精度が得られることを示す。
また,このモデルをラベルなし画像の大きなコーパス上で事前学習する方法を提案する。
実験の結果,ラベル付きトレーニングデータが少ない場合には,提案するネットワークのCNNに対するアドバンテージの事前学習が重要であることがわかった。
関連論文リスト
- Contextual Embedding Learning to Enhance 2D Networks for Volumetric Image Segmentation [5.995633685952995]
2次元畳み込みニューラルネットワーク(CNN)は、体積データの空間的相関をほとんど利用できない。
本研究では,空間情報を適切にキャプチャする2次元CNNを実現するためのコンテキスト埋め込み学習手法を提案する。
提案手法では,学習した埋め込みとスライスワイズマッチングをソフトキューとして活用し,ネットワークを誘導する。
論文 参考訳(メタデータ) (2024-04-02T08:17:39Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Patch-based medical image segmentation using Quantum Tensor Networks [1.5899411215927988]
テンソルネットワークを用いた教師付き設定で画像分割を定式化する。
鍵となるアイデアは、まず画像パッチのピクセルを指数関数的に高次元の特徴空間に引き上げることである。
提案モデルの性能を3つの2次元および1つの3次元バイオメディカルイメージングデータセットで評価した。
論文 参考訳(メタデータ) (2021-09-15T07:54:05Z) - Contrastive Learning with Continuous Proxy Meta-Data for 3D MRI
Classification [1.714108629548376]
我々は、y-Aware InfoNCE Losという新たな損失を導入することで、対照的な学習フレームワークにおいて、継続的なプロキシメタデータを活用することを提案する。
104ドルの健康脳MRIスキャンで事前訓練された3D CNNモデルは、3つの分類タスクに関連する特徴を抽出することができる。
微調整された場合、これらのタスクをスクラッチからトレーニングした3D CNNと、最先端の自己管理手法を上回ります。
論文 参考訳(メタデータ) (2021-06-16T14:17:04Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - Test-Time Adaptable Neural Networks for Robust Medical Image
Segmentation [9.372152932156293]
畳み込みニューラルネットワーク(CNN)は、教師付き学習問題に対して非常にうまく機能する。
医用画像のセグメンテーションにおいて、この前提は、取得の詳細の観点から、トレーニング画像とテスト画像のミスマッチがある場合に違反する。
比較的浅い画像正規化CNNと、正規化画像を分割する深いCNNの2つのサブネットワークの結合としてセグメンテーションCNNを設計する。
論文 参考訳(メタデータ) (2020-04-09T16:57:27Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。