論文の概要: FP-PET: Large Model, Multiple Loss And Focused Practice
- arxiv url: http://arxiv.org/abs/2309.12650v1
- Date: Fri, 22 Sep 2023 06:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-09-25 15:39:35.369127
- Title: FP-PET: Large Model, Multiple Loss And Focused Practice
- Title(参考訳): FP-PET:大規模モデル、複数損失、集中型プラクティス
- Authors: Yixin Chen, Ourui Fu, Wenrui Shao, Zhaoheng Xie
- Abstract要約: 本研究は,CTおよびPET画像に焦点をあてた医用画像セグメンテーションへの包括的アプローチであるFP-PETを提案する。
この研究は、最先端のセグメンテーション性能を達成するために、STUNet-large、SwinUNETR、VNetなど、さまざまな機械学習モデルを使用している。
- 参考スコア(独自算出の注目度): 4.449900388678701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents FP-PET, a comprehensive approach to medical image
segmentation with a focus on CT and PET images. Utilizing a dataset from the
AutoPet2023 Challenge, the research employs a variety of machine learning
models, including STUNet-large, SwinUNETR, and VNet, to achieve
state-of-the-art segmentation performance. The paper introduces an aggregated
score that combines multiple evaluation metrics such as Dice score, false
positive volume (FPV), and false negative volume (FNV) to provide a holistic
measure of model effectiveness. The study also discusses the computational
challenges and solutions related to model training, which was conducted on
high-performance GPUs. Preprocessing and postprocessing techniques, including
gaussian weighting schemes and morphological operations, are explored to
further refine the segmentation output. The research offers valuable insights
into the challenges and solutions for advanced medical image segmentation.
- Abstract(参考訳): 本研究は,CTおよびPET画像に焦点をあてた医用画像セグメンテーションへの包括的アプローチであるFP-PETを提案する。
autopet2023チャレンジのデータセットを利用して、研究はstunet-large、swiinunetr、vnetを含むさまざまな機械学習モデルを使用して、最先端のセグメンテーション性能を達成している。
本稿では,Dice score, false positive volume (FPV), false negative volume (FNV) などの複数の評価指標を組み合わせて,モデルの有効性を総合的に評価する集計スコアを提案する。
また、高性能gpu上で実施したモデルトレーニングに関する計算上の課題と解決策についても論じた。
ガウス重み付けスキームやモルフォロジー演算を含む前処理および後処理技術について検討し,さらにセグメンテーション出力を改良する。
この研究は、高度な医療画像セグメンテーションの課題と解決策に関する貴重な洞察を提供する。
関連論文リスト
- PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Deep Ensembling with Multimodal Image Fusion for Efficient Classification of Lung Cancer [0.07366405857677226]
この研究で使用されるデータは、CT(Computed Tomography)とPET(Positron Emission Tomography)画像である。
提案手法は,主成分分析(PCA)とオートエンコーダを用いてPETとCT画像の融合を実現する。
新しいアンサンブルベースの分類器であるDeep Ensembled Multimodal Fusion (DEMF) は、サンプル画像の分類に多数決を採用した。
論文 参考訳(メタデータ) (2025-01-31T13:24:00Z) - AutoPET III Challenge: PET/CT Semantic Segmentation [0.4905104543244113]
PET/CT画像におけるセグメント病変に対する2段階の深層学習手法を,AutoPET IIIチャレンジのために実装した。
最初の段階では、DynUNetモデルを使用して、広い関心領域を識別する粗いセグメンテーションを行った。
第2ステージでは、SwinUNETR、SegResNet、UNetモデルのアンサンブルを使用して、このセグメンテーションを改良した。
論文 参考訳(メタデータ) (2024-09-19T17:45:17Z) - Automated Lesion Segmentation in Whole-Body PET/CT in a multitracer setting [2.4549652987344546]
本研究は,マルチトラックPET画像の自動セグメンテーションワークフローの性能を評価することに焦点を当てた。
これらの知見は、診断や患者固有の治療計画の強化に重要な洞察を与えるものと期待されている。
論文 参考訳(メタデータ) (2024-09-15T15:32:29Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - SAM-EG: Segment Anything Model with Egde Guidance framework for efficient Polyp Segmentation [6.709243857842895]
本稿では,ポリプセグメンテーションのための小さなセグメンテーションモデルを用いて,コスト問題に対処するフレームワークを提案する。
本研究では,エッジ情報を画像特徴に組み込むEdge Guidingモジュールを提案する。
我々の小型モデルは、最先端の手法で競争結果を得ることで、その効果を実証する。
論文 参考訳(メタデータ) (2024-06-21T01:42:20Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。