論文の概要: Domain and Content Adaptive Convolutions for Cross-Domain Adenocarcinoma Segmentation
- arxiv url: http://arxiv.org/abs/2409.09797v1
- Date: Sun, 15 Sep 2024 17:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 17:20:56.621614
- Title: Domain and Content Adaptive Convolutions for Cross-Domain Adenocarcinoma Segmentation
- Title(参考訳): クロスドメイン腺癌切除における領域と内容適応的畳み込み
- Authors: Frauke Wilm, Mathias Öttl, Marc Aubreville, Katharina Breininger,
- Abstract要約: 我々はCOSAS(Cross-Organ and Cross-Scanner Adenocarcinoma)課題に取り組むためのU-Netベースのセグメンテーションフレームワークを提案する。
提案手法は,最終チャレンジテストセットのクロススキャントラックでは0.8020,クロススキャントラックでは0.8527のセグメンテーションスコアを得た。
- 参考スコア(独自算出の注目度): 0.44569778071604066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in computer-aided diagnosis for histopathology have been largely driven by the use of deep learning models for automated image analysis. While these networks can perform on par with medical experts, their performance can be impeded by out-of-distribution data. The Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation (COSAS) challenge aimed to address the task of cross-domain adenocarcinoma segmentation in the presence of morphological and scanner-induced domain shifts. In this paper, we present a U-Net-based segmentation framework designed to tackle this challenge. Our approach achieved segmentation scores of 0.8020 for the cross-organ track and 0.8527 for the cross-scanner track on the final challenge test sets, ranking it the best-performing submission.
- Abstract(参考訳): 病理組織学におけるコンピュータ支援診断の最近の進歩は, 画像の自動解析にディープラーニングモデルを用いることによって大きく進展している。
これらのネットワークは医療専門家と同等に機能するが、そのパフォーマンスはアウト・オブ・ディストリビューション・データによって阻害される。
COSAS(Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation)の課題は、形態学的およびスキャナーによるドメインシフトの存在下でのクロスドメイン腺癌セグメンテーションの課題に対処することであった。
本稿では,この課題に対処するためのU-Netベースのセグメンテーションフレームワークを提案する。
提案手法は,最終チャレンジテストセットのクロススキャントラックでは0.8020,クロススキャントラックでは0.8527のセグメンテーションスコアを得た。
関連論文リスト
- Adenocarcinoma Segmentation Using Pre-trained Swin-UNet with Parallel Cross-Attention for Multi-Domain Imaging [0.2878844332549157]
本稿では,Swin-UNetアーキテクチャを並列モジュールで拡張した事前学習型エンコーダにより構成するフレームワークについて述べる。
実験の結果, クロストラックでは0.7469, クロススキャナでは0.7597のセグメンテーションスコアが得られた。
論文 参考訳(メタデータ) (2024-09-23T19:38:43Z) - Domain-stratified Training for Cross-organ and Cross-scanner Adenocarcinoma Segmentation in the COSAS 2024 Challenge [0.0]
COSAS 2024(Cross-Organ and Cross-Scanner Adenocarcinoma)チャレンジのために開発された画像分割アルゴリズムを提案する。
臓器層化・スキャナ層化手法を用いて,複数の Upernet ベースセグメンテーションモデルを訓練し,結果をアンサンブルした。
論文 参考訳(メタデータ) (2024-09-19T02:36:34Z) - Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation using Rein to Fine-tune Vision Foundation Models [0.0]
我々はReinを用いて、MICCAI 2024とCross-OrganおよびCross-Scanner Adenocarcinomaの様々な視覚基盤モデル(VFM)を微調整する。
COSAS2024 Challengeのデータ環境において、ラインは良好な結果を得るためにVFMを微調整した。
論文 参考訳(メタデータ) (2024-09-18T07:10:24Z) - Deep Rib Fracture Instance Segmentation and Classification from CT on
the RibFrac Challenge [66.86170104167608]
RibFrac Challengeは、660のCTスキャンから5,000以上のリブ骨折のベンチマークデータセットを提供する。
MICCAI 2020チャレンジ期間中に243つの結果が評価され、7つのチームがチャレンジサマリーに参加するために招待された。
この分析により、いくつかのトップリブ骨折検出ソリューションが、人間の専門家と同等かそれ以上の性能を達成したことが明らかになった。
論文 参考訳(メタデータ) (2024-02-14T18:18:33Z) - M3BUNet: Mobile Mean Max UNet for Pancreas Segmentation on CT-Scans [25.636974007788986]
我々は,M3BUNetを提案する。M3BUNetはMobileNetとU-Netニューラルネットワークの融合で,2段階に分けて膵CT像を段階的に分割する,新しい平均値(MM)アテンションを備える。
細かなセグメンテーションの段階では、ウェーブレット分解フィルタを用いてマルチインプット画像を作成することにより、膵のセグメンテーション性能が向上することがわかった。
提案手法は,最大89.53%のDice similarity Coefficient(DSC)値と最大81.16のIntersection Over Union(IOU)スコアをNIH pancreasデータセットで達成する。
論文 参考訳(メタデータ) (2024-01-18T23:10:08Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Generative Adversarial Networks for Weakly Supervised Generation and Evaluation of Brain Tumor Segmentations on MR Images [0.0]
本研究は2次元磁気共鳴画像におけるセグメント異常に対する弱教師付きアプローチを示す。
我々は,癌画像を健全な変種に変換するGAN(Generative Adversarial Network)を訓練する。
非共役な変種は、弱監督的な方法で分割を評価するためにも用いられる。
論文 参考訳(メタデータ) (2022-11-10T00:04:46Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。