論文の概要: Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation using Rein to Fine-tune Vision Foundation Models
- arxiv url: http://arxiv.org/abs/2409.11752v1
- Date: Wed, 18 Sep 2024 07:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 18:48:44.744047
- Title: Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation using Rein to Fine-tune Vision Foundation Models
- Title(参考訳): Rein to Fine-Tune Vision Foundation Model を用いたクロスオーガンおよびクロススキャン腺癌切除
- Authors: Pengzhou Cai, Xueyuan Zhang, Ze Zhao,
- Abstract要約: 我々はReinを用いて、MICCAI 2024とCross-OrganおよびCross-Scanner Adenocarcinomaの様々な視覚基盤モデル(VFM)を微調整する。
COSAS2024 Challengeのデータ環境において、ラインは良好な結果を得るためにVFMを微調整した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, significant progress has been made in tumor segmentation within the field of digital pathology. However, variations in organs, tissue preparation methods, and image acquisition processes can lead to domain discrepancies among digital pathology images. To address this problem, in this paper, we use Rein, a fine-tuning method, to parametrically and efficiently fine-tune various vision foundation models (VFMs) for MICCAI 2024 Cross-Organ and Cross-Scanner Adenocarcinoma Segmentation (COSAS2024). The core of Rein consists of a set of learnable tokens, which are directly linked to instances, improving functionality at the instance level in each layer. In the data environment of the COSAS2024 Challenge, extensive experiments demonstrate that Rein fine-tuned the VFMs to achieve satisfactory results. Specifically, we used Rein to fine-tune ConvNeXt and DINOv2. Our team used the former to achieve scores of 0.7719 and 0.7557 on the preliminary test phase and final test phase in task1, respectively, while the latter achieved scores of 0.8848 and 0.8192 on the preliminary test phase and final test phase in task2. Code is available at GitHub.
- Abstract(参考訳): 近年,デジタル病理学の分野において腫瘍の分節化が著しい進展を遂げている。
しかし, 臓器, 組織調製法, 画像取得過程の変動は, デジタル病理画像の領域差につながる可能性がある。
そこで本論文では,MICCAI 2024とCOSAS2024の様々な視覚基盤モデル(VFM)をパラメトリックかつ効率的に微調整する手法であるReinを用いた。
Reinのコアは学習可能なトークンのセットで構成されており、インスタンスに直接リンクされ、各レイヤのインスタンスレベルの機能が改善されている。
COSAS2024 Challengeのデータ環境において、ラインは良好な結果を得るためにVFMを微調整した。
具体的には、Reinを使ってConvNeXtとDINOv2を微調整しました。
予備試験では0.7719点,最終試験では0.7557点,最終試験では0.8848点,最終試験では0.8192点を得た。
コードはGitHubで入手できる。
関連論文リスト
- Adenocarcinoma Segmentation Using Pre-trained Swin-UNet with Parallel Cross-Attention for Multi-Domain Imaging [0.2878844332549157]
本稿では,Swin-UNetアーキテクチャを並列モジュールで拡張した事前学習型エンコーダにより構成するフレームワークについて述べる。
実験の結果, クロストラックでは0.7469, クロススキャナでは0.7597のセグメンテーションスコアが得られた。
論文 参考訳(メタデータ) (2024-09-23T19:38:43Z) - Domain-stratified Training for Cross-organ and Cross-scanner Adenocarcinoma Segmentation in the COSAS 2024 Challenge [0.0]
COSAS 2024(Cross-Organ and Cross-Scanner Adenocarcinoma)チャレンジのために開発された画像分割アルゴリズムを提案する。
臓器層化・スキャナ層化手法を用いて,複数の Upernet ベースセグメンテーションモデルを訓練し,結果をアンサンブルした。
論文 参考訳(メタデータ) (2024-09-19T02:36:34Z) - Domain and Content Adaptive Convolutions for Cross-Domain Adenocarcinoma Segmentation [0.44569778071604066]
我々はCOSAS(Cross-Organ and Cross-Scanner Adenocarcinoma)課題に取り組むためのU-Netベースのセグメンテーションフレームワークを提案する。
提案手法は,最終チャレンジテストセットのクロススキャントラックでは0.8020,クロススキャントラックでは0.8527のセグメンテーションスコアを得た。
論文 参考訳(メタデータ) (2024-09-15T17:08:34Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Hybrid guiding: A multi-resolution refinement approach for semantic
segmentation of gigapixel histopathological images [0.7490318169877296]
セマンティックセグメンテーションのための、H2G-Netと呼ばれるカスケード畳み込みニューラルネットワーク設計を提案する。
設計にはパッチワイズ方式による検出段階と、畳み込みオートエンコーダを用いた改良段階が含まれる。
最高の設計は90 WSIの独立したテストセットでDiceスコア0.933を達成した。
論文 参考訳(メタデータ) (2021-12-07T02:31:29Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z) - A Generalized Deep Learning Framework for Whole-Slide Image Segmentation
and Analysis [0.20065923589074736]
病理組織分析は癌診断と予後における金の基準と考えられている。
深層学習に基づく技術は、さまざまな画像解析タスクにおいて、最先端の成果を提供している。
本稿では,病理組織像解析のためのディープラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-01T18:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。