論文の概要: Tumor segmentation on whole slide images: training or prompting?
- arxiv url: http://arxiv.org/abs/2402.13932v1
- Date: Wed, 21 Feb 2024 16:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:30:39.936139
- Title: Tumor segmentation on whole slide images: training or prompting?
- Title(参考訳): 全スライド画像上の腫瘍分割:訓練かプロンプトか?
- Authors: Huaqian Wu, Clara Br\'emond-Martin, K\'evin Bouaou, C\'edric Clouchoux
- Abstract要約: 3つの異なる臓器に対する腫瘍分節の文脈における視覚的プロンプトの有効性を示す。
この結果から,視覚的プロンプトは,適切なプロンプト例を用いて,広範囲な微調整を行なわずに,同等あるいは優れた性能を達成できることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tumor segmentation stands as a pivotal task in cancer diagnosis. Given the
immense dimensions of whole slide images (WSI) in histology, deep learning
approaches for WSI classification mainly operate at patch-wise or
superpixel-wise level. However, these solutions often struggle to capture
global WSI information and cannot directly generate the binary mask.
Downsampling the WSI and performing semantic segmentation is another possible
approach. While this method offers computational efficiency, it necessitates a
large amount of annotated data since resolution reduction may lead to
information loss. Visual prompting is a novel paradigm that allows the model to
perform new tasks by making subtle modifications to the input space, rather
than adapting the model itself. Such approach has demonstrated promising
results on many computer vision tasks. In this paper, we show the efficacy of
visual prompting in the context of tumor segmentation for three distinct
organs. In comparison to classical methods trained for this specific task, our
findings reveal that, with appropriate prompt examples, visual prompting can
achieve comparable or better performance without extensive fine-tuning.
- Abstract(参考訳): 腫瘍の分節は癌診断における重要な課題である。
組織学におけるスライド画像全体(WSI)の膨大な次元を考えると、WSI分類のためのディープラーニングアプローチは主にパッチワイドまたはスーパーピクセルワイドレベルで機能する。
しかし、これらのソリューションは、しばしばグローバルwsi情報の取り込みに苦労し、バイナリマスクを直接生成することができない。
WSI のダウンサンプリングとセマンティックセグメンテーションの実行も可能なアプローチです。
この手法は計算効率を提供するが、解像度の低下が情報損失につながる可能性があるため、大量の注釈データを必要とする。
ビジュアルプロンプトは、モデル自体に適応するのではなく、入力空間に微妙な修正を加えることで、モデルが新しいタスクを実行できる新しいパラダイムである。
このようなアプローチは多くのコンピュータビジョンタスクで有望な結果を示している。
本稿では,3臓器に対する腫瘍分節の文脈における視覚的プロンプトの有効性について述べる。
この課題に対して訓練された古典的手法と比較して、視覚的プロンプトは、適切なプロンプト例によって、広範囲な微調整をすることなく、同等またはより良い性能を達成できることが判明した。
関連論文リスト
- Revisiting Surgical Instrument Segmentation Without Human Intervention: A Graph Partitioning View [7.594796294925481]
本稿では,ビデオフレーム分割をグラフ分割問題として再検討し,教師なしの手法を提案する。
自己教師付き事前学習モデルは、まず、高レベルな意味的特徴をキャプチャする特徴抽出器として活用される。
ディープ」固有ベクトルでは、手術用ビデオフレームは、ツールや組織などの異なるモジュールに意味的に分割され、区別可能な意味情報を提供する。
論文 参考訳(メタデータ) (2024-08-27T05:31:30Z) - Generalizable Whole Slide Image Classification with Fine-Grained Visual-Semantic Interaction [17.989559761931435]
本稿では,WSI分類のための"Fine-fine Visual-Semantic Interaction"フレームワークを提案する。
局所的な視覚パターンと微細な病理的意味論の相互作用を活用することにより、モデルの一般化性を高めるように設計されている。
本手法は, TCGA肺がんデータセットにおいて, 高い一般化性, 強い転移性を示す。
論文 参考訳(メタデータ) (2024-02-29T16:29:53Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Context-Aware Self-Supervised Learning of Whole Slide Images [0.0]
本研究では, 新たな2段階学習手法を提案する。
WSI内のすべての領域間の依存関係をキャプチャするグラフ表現は非常に直感的です。
スライド全体はグラフとして表示され、ノードはWSIのパッチに対応する。
提案したフレームワークは、前立腺癌と腎癌からのWSIを用いてテストされる。
論文 参考訳(メタデータ) (2023-06-07T20:23:05Z) - Task-specific Fine-tuning via Variational Information Bottleneck for
Weakly-supervised Pathology Whole Slide Image Classification [10.243293283318415]
MIL(Multiple Instance Learning)は、デジタル・パスロジー・ホール・スライド・イメージ(WSI)分類において有望な結果を示している。
本稿では,Information Bottleneck 理論を動機とした効率的な WSI 微調整フレームワークを提案する。
我々のフレームワークは、様々なWSIヘッド上の5つの病理WSIデータセットで評価される。
論文 参考訳(メタデータ) (2023-03-15T08:41:57Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。