論文の概要: Multi-Modality Abdominal Multi-Organ Segmentation with Deep Supervised
3D Segmentation Model
- arxiv url: http://arxiv.org/abs/2208.12041v1
- Date: Wed, 24 Aug 2022 03:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:46:53.863331
- Title: Multi-Modality Abdominal Multi-Organ Segmentation with Deep Supervised
3D Segmentation Model
- Title(参考訳): 深部教師付き3次元セグメンテーションモデルを用いたマルチモダリティ腹部マルチオルガンセグメンテーション
- Authors: Satoshi Kondo, Satoshi Kasai
- Abstract要約: AMOS 2022チャレンジの解決策を提示する。
我々は、ベースモデルとして、ディープ・スーパービジョンを備えた残留U-Netを採用している。
実験の結果,Dice類似度係数と正規化表面ダイスの平均スコアはそれぞれ0.8504,0.8476であり,CT/MRIでは0.8476であった。
- 参考スコア(独自算出の注目度): 0.12183405753834559
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To promote the development of medical image segmentation technology, AMOS, a
large-scale abdominal multi-organ dataset for versatile medical image
segmentation, is provided and AMOS 2022 challenge is held by using the dataset.
In this report, we present our solution for the AMOS 2022 challenge. We employ
residual U-Net with deep super vision as our base model. The experimental
results show that the mean scores of Dice similarity coefficient and normalized
surface dice are 0.8504 and 0.8476 for CT only task and CT/MRI task,
respectively.
- Abstract(参考訳): 医用画像セグメンテーション技術の開発を促進するため、多目的な医用画像セグメンテーションのための大規模腹腔多臓器データセットであるAMOSが提供され、このデータセットを用いてAMOS 2022チャレンジを行う。
本稿では,AMOS 2022の課題に対する解決策を提案する。
我々は、ベースモデルとして、ディープスーパービジョンを備えた残留U-Netを採用している。
実験の結果,Dice類似度係数と正規化表面ダイスの平均スコアはそれぞれ0.8504,0.8476であり,CT/MRIでは0.8476であった。
関連論文リスト
- Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic
Segmentation [49.916468280857885]
Mask-Enhanced SAM (M-SAM) は3次元腫瘍病変の分節に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Large-scale Long-tailed Disease Diagnosis on Radiology Images [59.37561810438641]
本研究では,放射線画像における大規模大語彙疾患分類の問題点について検討する。
i)データセット構築では、39,026ケース(192,675スキャン)を含む930のユニークなICD-10-CMコードとリンクした5568の障害を含む、学術的にアクセス可能な大規模診断データセットを構築します。
さらに,本研究の最終モデルは事前学習モデルとして機能し,様々な外部データセットの診断に役立てることができる。
論文 参考訳(メタデータ) (2023-12-26T18:20:48Z) - Image-level supervision and self-training for transformer-based
cross-modality tumor segmentation [2.29206349318258]
そこで本研究では,MoDATTSと呼ばれる半教師付きトレーニング戦略を提案する。
MoDATTSは、未実装のバイモーダルデータセット上の正確な3D腫瘍セグメンテーションのために設計されている。
この最大性能の99%と100%は、目標データの20%と50%が注釈付きであれば達成できると報告している。
論文 参考訳(メタデータ) (2023-09-17T11:50:12Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - AMOS: A Large-Scale Abdominal Multi-Organ Benchmark for Versatile
Medical Image Segmentation [32.938687630678096]
AMOSは、腹部臓器の分節のための大規模で多様な臨床データセットである。
さまざまなターゲットとシナリオの下で堅牢なセグメンテーションアルゴリズムを研究する上で、難しい例とテストベッドを提供する。
我々は、この新たな挑戦的データセット上で既存の方法の現状を評価するために、最先端の医療セグメンテーションモデルをいくつかベンチマークする。
論文 参考訳(メタデータ) (2022-06-16T09:27:56Z) - Hierarchical 3D Feature Learning for Pancreas Segmentation [11.588903060674344]
MRIとCTの両方から膵分画を自動化する3D完全畳み込み型深層ネットワークを提案する。
本モデルでは,Diceスコアが約88%と,既存のCT膵セグメンテーション法よりも優れていた。
さらなる制御実験により、達成された性能は、我々の3次元完全畳み込み深層ネットワークと階層的表現復号化の組み合わせによるものであることが示された。
論文 参考訳(メタデータ) (2021-09-03T09:27:07Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Segmentation of Cellular Patterns in Confocal Images of Melanocytic
Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) [2.0487455621441377]
マルチスケールデコーダネットワーク(MED-Net)は,パターンのクラスに定量的なラベル付けを行う。
メラノサイト病変の117個の反射共焦点顕微鏡(RCM)モザイクの非重畳分割について,本モデルを訓練・試験した。
論文 参考訳(メタデータ) (2020-01-03T22:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。