論文の概要: To pretrain or not to pretrain? A case study of domain-specific
pretraining for semantic segmentation in histopathology
- arxiv url: http://arxiv.org/abs/2307.03275v1
- Date: Thu, 6 Jul 2023 20:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 14:07:09.488939
- Title: To pretrain or not to pretrain? A case study of domain-specific
pretraining for semantic segmentation in histopathology
- Title(参考訳): 事前訓練するか、事前訓練しないか?
病理組織学におけるセマンティクスセグメンテーションのためのドメイン特化前訓練の事例研究
- Authors: Tushar Kataria, Beatrice Knudsen and Shireen Elhabian
- Abstract要約: 微調整医療画像データセットは費用がかかるため、トランスファーラーニングはデジタル病理視覚応用の最も効果的な方法である。
そこで本研究では,腺と細胞セグメンテーションタスクのパフォーマンスを,ドメイン特異的および非ドメイン特異的な事前訓練重量と比較した。
その結果、ドメイン固有の事前トレーニングによるパフォーマンス向上は、トレーニングデータセットのタスクとサイズの両方に依存することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating medical imaging datasets is costly, so fine-tuning (or transfer
learning) is the most effective method for digital pathology vision
applications such as disease classification and semantic segmentation. However,
due to texture bias in models trained on real-world images, transfer learning
for histopathology applications might result in underperforming models, which
necessitates the need for using unlabeled histopathology data and
self-supervised methods to discover domain-specific characteristics. Here, we
tested the premise that histopathology-specific pretrained models provide
better initializations for pathology vision tasks, i.e., gland and cell
segmentation. In this study, we compare the performance of gland and cell
segmentation tasks with domain-specific and non-domain-specific pretrained
weights. Moreover, we investigate the data size at which domain-specific
pretraining produces a statistically significant difference in performance. In
addition, we investigated whether domain-specific initialization improves the
effectiveness of out-of-domain testing on distinct datasets but the same task.
The results indicate that performance gain using domain-specific pretraining
depends on both the task and the size of the training dataset. In instances
with limited dataset sizes, a significant improvement in gland segmentation
performance was also observed, whereas models trained on cell segmentation
datasets exhibit no improvement.
- Abstract(参考訳): 医用画像データセットのアノテートは費用がかかるため、細調整(あるいは伝達学習)は疾患分類やセマンティックセグメンテーションなどのデジタル病理ビジョン応用において最も効果的な方法である。
しかし、実際の画像に基づいて訓練されたモデルのテクスチャバイアスにより、転送学習は、未ラベルの病理学データと自己教師によるドメイン固有の特徴の発見を必要とするような、パフォーマンスの低いモデルをもたらす可能性がある。
そこで我々は,病理組織特異的な事前訓練モデルが,病理視覚,すなわち腺と細胞セグメンテーションにより良い初期化をもたらすという前提を検証した。
本研究では,腺と細胞セグメンテーションタスクのパフォーマンスを,ドメイン特異的および非ドメイン特異的な事前訓練重量と比較した。
さらに,ドメイン固有事前学習が統計的に有意な性能差をもたらすデータサイズについて検討する。
さらに,ドメイン固有の初期化によって,異なるデータセット上でのドメイン外テストの有効性が向上するかどうかを検討した。
その結果、ドメイン固有の事前トレーニングによるパフォーマンス向上は、タスクとトレーニングデータセットのサイズの両方に依存することがわかった。
データセットサイズが限定されたインスタンスでは腺分節性能が著しく向上するのに対し,細胞分節データセットでトレーニングしたモデルでは改善は見られなかった。
関連論文リスト
- LoRKD: Low-Rank Knowledge Decomposition for Medical Foundation Models [59.961172635689664]
知識分解」は、特定の医療課題のパフォーマンス向上を目的としている。
我々はLow-Rank Knowledge Decomposition(LoRKD)という新しいフレームワークを提案する。
LoRKDは、低ランクのエキスパートモジュールと効率的な知識分離畳み込みを組み込むことで、グラデーションを異なるタスクから明確に分離する。
論文 参考訳(メタデータ) (2024-09-29T03:56:21Z) - Benchmarking Retinal Blood Vessel Segmentation Models for Cross-Dataset and Cross-Disease Generalization [5.237321836999284]
公開されているFIVESファウンダスイメージデータセット上で,5つの公開モデルをトレーニングし,評価する。
画像の品質がセグメンテーションの結果を決定する重要な要因であることがわかった。
論文 参考訳(メタデータ) (2024-06-21T09:12:34Z) - Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - Explanations of Classifiers Enhance Medical Image Segmentation via
End-to-end Pre-training [37.11542605885003]
医用画像セグメンテーションは、ディープニューラルネットワークを用いて、胸部X線写真などの医用画像の異常な構造を特定し、発見することを目的としている。
我々の研究は、よく訓練された分類器から説明を集め、セグメンテーションタスクの擬似ラベルを生成する。
次に、インテグレート・グラディエント(IG)法を用いて、分類器から得られた説明を蒸留し、強化し、大規模診断指向のローカライゼーション・ラベル(DoLL)を生成する。
これらのDLLアノテーション付き画像は、新型コロナウイルス感染症、肺、心臓、鎖骨などの下流のセグメンテーションタスクのために、モデルを微調整する前に事前訓練するために使用される。
論文 参考訳(メタデータ) (2024-01-16T16:18:42Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Active Learning Based Domain Adaptation for Tissue Segmentation of
Histopathological Images [1.4724454726700604]
対象ドメインからラベル付きデータの小さなセットを使用して,次にラベル付けする最も情報性の高いサンプルを選択する,事前学習されたディープニューラルネットワークを提案する。
従来のF1スコアを用いた教師あり学習手法と比較して,本手法はラベル付きサンプルよりもはるかに少ない性能を示す。
論文 参考訳(メタデータ) (2023-03-09T13:03:01Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Deep learning based domain adaptation for mitochondria segmentation on
EM volumes [5.682594415267948]
対象領域におけるミトコンドリアセグメンテーションを改善するための3つの非教師なし領域適応戦略を提案する。
そこで本研究では,ソースドメイン内でのみ得られる形態的事前条件に基づいて,新たな学習停止基準を提案する。
評価ラベルがない場合、提案した形態素に基づく計量をモニタリングすることは、トレーニングプロセスを止めて平均最適モデルを選択するための直感的で効果的な方法である。
論文 参考訳(メタデータ) (2022-02-22T09:49:25Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。