論文の概要: Cross-Task Pretraining for Cross-Organ Cross-Scanner Adenocarcinoma Segmentation
- arxiv url: http://arxiv.org/abs/2410.07124v1
- Date: Fri, 20 Sep 2024 20:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 22:17:22.779641
- Title: Cross-Task Pretraining for Cross-Organ Cross-Scanner Adenocarcinoma Segmentation
- Title(参考訳): クロス・オーガン・クロス・スキャンナー・アデノシノーマ・セグメンテーションのためのクロス・タスク・プレトレーニング
- Authors: Adrian Galdran,
- Abstract要約: 短い要約では、COSAS 2024のクロスオーガンとクロススキャン腺癌の競合に対する解決策を記述している。
このタイプのがんを分別する作業における大きな課題は、取得装置(顕微鏡)を変更したり、異なる臓器から組織が来たりするときに発生する顕著なドメインシフトである。
実験の結果,クロスタスク事前学習はドメインの一般化に対するより有望なアプローチであることがわかった。
- 参考スコア(独自算出の注目度): 1.6653762541912462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This short abstract describes a solution to the COSAS 2024 competition on Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation from histopathological image patches. The main challenge in the task of segmenting this type of cancer is a noticeable domain shift encountered when changing acquisition devices (microscopes) and also when tissue comes from different organs. The two tasks proposed in COSAS were to train on a dataset of images from three different organs, and then predict segmentations on data from unseen organs (dataset T1), and to train on a dataset of images acquired on three different scanners and then segment images acquired with another unseen microscope. We attempted to bridge the domain shift gap by experimenting with three different strategies: standard training for each dataset, pretraining on dataset T1 and then fine-tuning on dataset T2 (and vice-versa, a strategy we call \textit{Cross-Task Pretraining}), and training on the combination of dataset A and B. Our experiments showed that Cross-Task Pre-training is a more promising approach to domain generalization.
- Abstract(参考訳): この要約は、病理組織像からCOSAS 2024のCross-OrganおよびCross-Scanner Adenocarcinoma Segmentationに対する解決策を記述したものである。
このタイプのがんを分別する作業における大きな課題は、取得装置(顕微鏡)を変更したり、異なる臓器から組織が来たりするときに発生する顕著なドメインシフトである。
COSASで提案された2つのタスクは、3つの異なる臓器からの画像のデータセットをトレーニングし、次に、見えない臓器からのデータ(データセットT1)のセグメンテーションを予測し、3つの異なるスキャナーで取得した画像のデータセットをトレーニングし、次に別の無見えない顕微鏡で取得した画像のセグメンテーションをトレーニングすることであった。
我々は,データセット毎の標準トレーニング,データセットT1の事前トレーニング,データセットT2の微調整(およびその逆),データセットAとBの組み合わせによるトレーニングという,3つの戦略を試して,ドメインシフトギャップを埋めようとした。
関連論文リスト
- Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Semi-supervised, Topology-Aware Segmentation of Tubular Structures from
Live Imaging 3D Microscopy [6.2651370198971295]
本稿では, バイオメディカルイメージングにおける2つの問題に対処する: セグメンテーションのトポロジ的一貫性, 限定アノテーション。
本研究では, 予測された真理セグメントと地上の真理セグメントの位相的および幾何学的整合性を測定するトポロジカルスコアを提案する。
本研究は, 乳房内管状構造を集束顕微鏡で観察し, 本研究の意義を検証した。
論文 参考訳(メタデータ) (2021-05-20T13:35:44Z) - TricycleGAN: Unsupervised Image Synthesis and Segmentation Based on
Shape Priors [0.0]
本稿では,TricycleGANと呼ばれる,教師なし・半教師付き画像分割が可能な新しいネットワークアーキテクチャを提案する。
このアプローチでは、3つの生成モデルを用いて、中間ステップとしてエッジマップを用いて医療画像とセグメンテーションマップ間の翻訳を学習する。
腎超音波画像の臨床データセットとISIC 2018皮膚病変データセットのベンチマークを用いてTricycleGANを用いた実験を行った。
論文 参考訳(メタデータ) (2021-02-04T15:36:18Z) - Domain Adaptive Relational Reasoning for 3D Multi-Organ Segmentation [17.504340316130023]
本手法は,医用画像の内部構造間の空間的関係が比較的固定されていることに着想を得たものである。
我々はジグソーパズルタスクを解くことで空間的関係を定式化し、シャッフルパッチからCTスキャンを復元し、臓器分割タスクと共同で訓練する。
学習した空間関係が複数の領域に伝達可能であることを保証するため,1) 分割モデルと協調して訓練された超解像ネットワークを用いて,異なる領域からの医用画像の標準化,2) テスト時間ジグソーパズルトレーニングによるテスト画像の空間関係の適応,の2つのスキームを導入する。
論文 参考訳(メタデータ) (2020-05-18T22:44:34Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z) - LC-GAN: Image-to-image Translation Based on Generative Adversarial
Network for Endoscopic Images [22.253074722129053]
本稿では,GAN(Generative Adversarial Network)に基づくイメージ・ツー・イメージ翻訳モデルLive-cadaver GAN(LC-GAN)を提案する。
実写画像セグメンテーションでは,まずLC-GANを用いて,実写画像から実写画像に変換し,実写画像データセットで訓練したモデルを用いて偽写画像のセグメンテーションを行う。
提案手法は画像から画像への変換性が向上し,領域間セグメンテーションタスクにおけるセグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2020-03-10T19:59:25Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。