論文の概要: IB-U-Nets: Improving medical image segmentation tasks with 3D Inductive
Biased kernels
- arxiv url: http://arxiv.org/abs/2210.15949v1
- Date: Fri, 28 Oct 2022 07:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:08:07.465977
- Title: IB-U-Nets: Improving medical image segmentation tasks with 3D Inductive
Biased kernels
- Title(参考訳): ib-u-nets: 3次元インダクティブバイアスカーネルによる医用画像分割タスクの改善
- Authors: Shrajan Bhandary and Zahra Babaiee and Dejan Kostyszyn and Tobias
Fechter and Constantinos Zamboglou and Anca-Ligia Grosu and Radu Grosu
- Abstract要約: IB-U-Netsは脊椎動物の視覚処理にインスパイアされた誘導バイアスを持つ新しいアーキテクチャである。
3D U-Netをベースとして、第2エンコーダブロックに2つの残留成分を付加する。これは誘導バイアスを与え、U-Netが3D画像から解剖学的構造を分割し、堅牢性と精度を高めるのに役立つ。
IB-U-Netsの強靭性と精度は,医用画像解析の典型例のように,特に小データセットにおいて優れていた。
- 参考スコア(独自算出の注目度): 8.361151913935776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of convolutional neural networks for 3D medical-image
segmentation, the architectures currently used are still not robust enough to
the protocols of different scanners, and the variety of image properties they
produce. Moreover, access to large-scale datasets with annotated regions of
interest is scarce, and obtaining good results is thus difficult. To overcome
these challenges, we introduce IB-U-Nets, a novel architecture with inductive
bias, inspired by the visual processing in vertebrates. With the 3D U-Net as
the base, we add two 3D residual components to the second encoder blocks. They
provide an inductive bias, helping U-Nets to segment anatomical structures from
3D images with increased robustness and accuracy. We compared IB-U-Nets with
state-of-the-art 3D U-Nets on multiple modalities and organs, such as the
prostate and spleen, using the same training and testing pipeline, including
data processing, augmentation and cross-validation. Our results demonstrate the
superior robustness and accuracy of IB-U-Nets, especially on small datasets, as
is typically the case in medical-image analysis. IB-U-Nets source code and
models are publicly available.
- Abstract(参考訳): 3D医療画像のセグメンテーションのための畳み込みニューラルネットワークの成功にもかかわらず、現在使われているアーキテクチャは、異なるスキャナーのプロトコルやそれらが生成するさまざまな画像特性に十分な堅牢性を持っていない。
さらに,注釈付き領域を持つ大規模データセットへのアクセスは困難であり,良好な結果を得ることは困難である。
これらの課題を克服するために,脊椎動物の視覚処理に触発された誘導バイアスを持つ新しいアーキテクチャであるib-u-netsを紹介する。
3D U-Netをベースとして、第2エンコーダブロックに2つの残留成分を付加する。
それらは誘導バイアスを提供し、U-Netsが堅牢性と精度を高めた3D画像から解剖学的構造を分割するのに役立つ。
IB-U-Netsと最先端の3D U-Netsを,データ処理,拡張,クロスバリデーションを含む同一のトレーニングおよびテストパイプラインを用いて,前立腺や脾臓などの複数のモードおよび臓器で比較した。
IB-U-Netsの強靭性と精度は,医用画像解析の典型例のように,特に小データセットにおいて優れていた。
IB-U-Netsのソースコードとモデルが公開されている。
関連論文リスト
- Improved distinct bone segmentation in upper-body CT through
multi-resolution networks [0.39583175274885335]
上半身CTと異なる骨分画では、大きな視野と計算的な3Dアーキテクチャが必要とされる。
これにより、空間的コンテキストの欠如により、細部や局所的な誤差を欠いた低解像度な結果が得られる。
本稿では,異なる解像度で動作する複数の3次元U-Netを組み合わせたエンドツーエンドのトレーニング可能なセグメンテーションネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-31T14:46:16Z) - Enforcing connectivity of 3D linear structures using their 2D
projections [54.0598511446694]
本稿では,2次元投影におけるトポロジ認識損失の総和を最小化することにより,結果の3次元接続性を改善することを提案する。
これにより、精度の向上と、アノテーション付きトレーニングデータの提供に必要なアノテーションの労力の削減が図られる。
論文 参考訳(メタデータ) (2022-07-14T11:42:18Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - 3D-OOCS: Learning Prostate Segmentation with Inductive Bias [5.907824204733372]
我々は,脊椎動物の視覚処理に触発された新しいアーキテクチャであるOOCS-enhanced Networkを紹介した。
ベースとして異なる3D U-Netの変種を伴って、第2エンコーダブロックに2つの3D残留成分(オン・オフ・センター・サラウンド)を付加する。
OOCSは、3DのU-Netが3D画像に存在する解剖学的構造を精査し、精査するのに役立つ。
論文 参考訳(メタデータ) (2021-10-29T10:14:56Z) - R2U3D: Recurrent Residual 3D U-Net for Lung Segmentation [17.343802171952195]
本稿では,3次元肺分割作業のための新しいモデルであるRecurrent Residual 3D U-Net(R2U3D)を提案する。
特に,提案モデルでは,U-Netに基づくRecurrent Residual Neural Networkに3次元畳み込みを組み込む。
提案するR2U3Dネットワークは、公開データセットLUNA16に基づいてトレーニングされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-05T19:17:14Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Efficient embedding network for 3D brain tumor segmentation [0.33727511459109777]
本稿では,脳腫瘍の3次元的セマンティックセグメンテーションを目的とした2次元分類網の性能伝達手法について検討する。
入力データが3Dの場合、エンコーダの第1層は、効率の良いNetネットワークの入力に適合するために、第3次元の削減に費やされる。
BraTS 2020チャレンジの検証とテストデータに関する実験結果から,提案手法が有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-22T16:17:29Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。