論文の概要: 3D-OOCS: Learning Prostate Segmentation with Inductive Bias
- arxiv url: http://arxiv.org/abs/2110.15664v1
- Date: Fri, 29 Oct 2021 10:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 20:39:40.631015
- Title: 3D-OOCS: Learning Prostate Segmentation with Inductive Bias
- Title(参考訳): 3D-OOCS:インダクティブバイアスによる前立腺分節学習
- Authors: Shrajan Bhandary, Zahra Babaiee, Dejan Kostyszyn, Tobias Fechter,
Constantinos Zamboglou, Anca Grosu, Radu Grosu
- Abstract要約: 我々は,脊椎動物の視覚処理に触発された新しいアーキテクチャであるOOCS-enhanced Networkを紹介した。
ベースとして異なる3D U-Netの変種を伴って、第2エンコーダブロックに2つの3D残留成分(オン・オフ・センター・サラウンド)を付加する。
OOCSは、3DのU-Netが3D画像に存在する解剖学的構造を精査し、精査するのに役立つ。
- 参考スコア(独自算出の注目度): 5.907824204733372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the great success of convolutional neural networks (CNN) in 3D
medical image segmentation tasks, the methods currently in use are still not
robust enough to the different protocols utilized by different scanners, and to
the variety of image properties or artefacts they produce. To this end, we
introduce OOCS-enhanced networks, a novel architecture inspired by the innate
nature of visual processing in the vertebrates. With different 3D U-Net
variants as the base, we add two 3D residual components to the second encoder
blocks: on and off center-surround (OOCS). They generalise the ganglion
pathways in the retina to a 3D setting. The use of 2D-OOCS in any standard CNN
network complements the feedforward framework with sharp edge-detection
inductive biases. The use of 3D-OOCS also helps 3D U-Nets to scrutinise and
delineate anatomical structures present in 3D images with increased accuracy.We
compared the state-of-the-art 3D U-Nets with their 3D-OOCS extensions and
showed the superior accuracy and robustness of the latter in automatic prostate
segmentation from 3D Magnetic Resonance Images (MRIs). For a fair comparison,
we trained and tested all the investigated 3D U-Nets with the same pipeline,
including automatic hyperparameter optimisation and data augmentation.
- Abstract(参考訳): 3次元医用画像分割タスクにおける畳み込みニューラルネットワーク(cnn)の成功にもかかわらず、現在使用されている手法は、異なるスキャナが利用する異なるプロトコルや、それらが生成する様々な画像特性やアーティファクトに対して十分に堅牢ではない。
そこで我々は,脊椎動物の視覚処理の性質に触発された新しいアーキテクチャであるoocs-enhanced networksを紹介する。
ベースとして異なる3D U-Netの変種を用いると、第2エンコーダブロックに2つの3D残基を付加する。
彼らは網膜の神経節経路を3D設定に一般化する。
標準cnnネットワークにおける2d-oocsの使用は、鋭いエッジ検出インダクティブバイアスを持つfeedforwardフレームワークを補完する。
3D-OOCSを用いた3D-OOCSは, 3D画像中の解剖学的構造を精査し, 精査する上でも有効であり, 最先端の3D-OOCS拡張と3D-OOCS拡張を比較し, 3D磁気共鳴画像(MRI)からの自動前立腺区分けにおいて, 後者の精度と堅牢性を示した。
公正な比較として,自動ハイパーパラメータ最適化やデータ拡張など,調査対象の3D U-Netをすべて同じパイプラインでトレーニングし,テストした。
関連論文リスト
- 3D-Adapter: Geometry-Consistent Multi-View Diffusion for High-Quality 3D Generation [45.218605449572586]
3D-Adapterは、3D幾何学的認識を事前訓練された画像拡散モデルに注入するために設計されたプラグインモジュールである。
Instant3DやZero123++のようなテキスト・ツー・マルチビューモデルの幾何学的品質を大幅に向上させることを示す。
また,テキスト・ツー・3D,画像・ツー・3D,テキスト・トゥ・テクスチャ,テキスト・トゥ・アバタータスクにおいて,高品質な結果を示すことで,3D-Adapterの幅広い応用可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T17:59:30Z) - SE3D: A Framework For Saliency Method Evaluation In 3D Imaging [4.090991964172346]
3D畳み込みニューラルネットワーク(3D CNN)は、LIDAR、MRI、CTスキャンを処理できる。
Explainable Artificial Intelligenceの最近の進歩にもかかわらず、3D CNNの説明にはほとんど注力していない。
本稿では,3次元イメージングにおけるSaliency Method EvaluationのためのフレームワークSE3Dを提案する。
論文 参考訳(メタデータ) (2024-05-23T13:55:11Z) - IB-U-Nets: Improving medical image segmentation tasks with 3D Inductive
Biased kernels [8.361151913935776]
IB-U-Netsは脊椎動物の視覚処理にインスパイアされた誘導バイアスを持つ新しいアーキテクチャである。
3D U-Netをベースとして、第2エンコーダブロックに2つの残留成分を付加する。これは誘導バイアスを与え、U-Netが3D画像から解剖学的構造を分割し、堅牢性と精度を高めるのに役立つ。
IB-U-Netsの強靭性と精度は,医用画像解析の典型例のように,特に小データセットにおいて優れていた。
論文 参考訳(メタデータ) (2022-10-28T07:12:15Z) - Neural Feature Fusion Fields: 3D Distillation of Self-Supervised 2D
Image Representations [92.88108411154255]
本稿では,3次元シーンとして再構成可能な複数画像の解析に後者を適用する際に,高密度な2次元画像特徴抽出器を改善する手法を提案する。
本手法は,手動ラベルを使わずに,シーン固有のニューラルネットワークの文脈における意味理解を可能にするだけでなく,自己監督型2Dベースラインよりも一貫して改善されていることを示す。
論文 参考訳(メタデータ) (2022-09-07T23:24:09Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Asymmetric 3D Context Fusion for Universal Lesion Detection [55.61873234187917]
3Dネットワークは、3Dコンテキストでは強いが、教師付き事前トレーニングがない。
既存の3Dコンテキスト融合演算子は空間対称に設計されており、畳み込みのように各2Dスライス上で同一の操作を行う。
本研究では, 異なる重みを持つ非対称な3次元コンテキスト融合演算子 (A3D) を提案し, 異なる2次元スライスから3次元コンテキストを融合させる。
論文 参考訳(メタデータ) (2021-09-17T16:25:10Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - Bidirectional Projection Network for Cross Dimension Scene Understanding [69.29443390126805]
本稿では,2次元および3次元の連立推論のための縦方向投影網(BPNet)をエンドツーエンドに提示する。
emphBPM、補完的な2D、および3D情報は、複数のアーキテクチャレベルで相互に相互作用することができる。
我々のemphBPNetは2次元および3次元セマンティックセマンティックセグメンテーションのためのScanNetV2ベンチマークで最高性能を達成した。
論文 参考訳(メタデータ) (2021-03-26T08:31:39Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。