論文の概要: Leverage Weakly Annotation to Pixel-wise Annotation via Zero-shot
Segment Anything Model for Molecular-empowered Learning
- arxiv url: http://arxiv.org/abs/2308.05785v1
- Date: Thu, 10 Aug 2023 16:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 15:54:27.949499
- Title: Leverage Weakly Annotation to Pixel-wise Annotation via Zero-shot
Segment Anything Model for Molecular-empowered Learning
- Title(参考訳): 分子動力学学習のためのゼロショットセグメンテーションモデルによる画素ワイズアノテーションの活用
- Authors: Xueyuan Li, Ruining Deng, Yucheng Tang, Shunxing Bao, Haichun Yang,
Yuankai Huo
- Abstract要約: AIモデルの構築にはピクセルレベルのアノテーションが必要だ。
本稿では,最近のセグメンテーションモデル(SAM)を弱いボックスアノテーションに応用することにより,ピクセルレベルのデライン化を回避できる可能性を探る。
提案したSAM-Assisted molecular-empowered learning (SAM-L) は,弱いボックスアノテーションを必要とせず,レイアノテータのラベル付け作業の軽減を図っている。
- 参考スコア(独自算出の注目度): 4.722512095568422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise identification of multiple cell classes in high-resolution Giga-pixel
whole slide imaging (WSI) is critical for various clinical scenarios. Building
an AI model for this purpose typically requires pixel-level annotations, which
are often unscalable and must be done by skilled domain experts (e.g.,
pathologists). However, these annotations can be prone to errors, especially
when distinguishing between intricate cell types (e.g., podocytes and mesangial
cells) using only visual inspection. Interestingly, a recent study showed that
lay annotators, when using extra immunofluorescence (IF) images for reference
(referred to as molecular-empowered learning), can sometimes outperform domain
experts in labeling. Despite this, the resource-intensive task of manual
delineation remains a necessity during the annotation process. In this paper,
we explore the potential of bypassing pixel-level delineation by employing the
recent segment anything model (SAM) on weak box annotation in a zero-shot
learning approach. Specifically, we harness SAM's ability to produce
pixel-level annotations from box annotations and utilize these SAM-generated
labels to train a segmentation model. Our findings show that the proposed
SAM-assisted molecular-empowered learning (SAM-L) can diminish the labeling
efforts for lay annotators by only requiring weak box annotations. This is
achieved without compromising annotation accuracy or the performance of the
deep learning-based segmentation. This research represents a significant
advancement in democratizing the annotation process for training pathological
image segmentation, relying solely on non-expert annotators.
- Abstract(参考訳): 高解像度ギガピクセル全スライド画像(WSI)における複数の細胞群の正確な同定は,様々な臨床シナリオにおいて重要である。
この目的のためにAIモデルを構築するには、通常はピクセルレベルのアノテーションが必要である。
しかし、特に視覚検査だけで複雑な細胞タイプ(例えば、ポッド細胞とメサンギウム細胞)を区別する場合、これらのアノテーションはエラーを起こしやすい。
興味深いことに、最近の研究では、追加の免疫蛍光(if)画像を参照として使う場合(分子エミュレート学習と呼ばれる)、ラベリングにおいてドメインの専門家を上回らせることがある。
それにもかかわらず、手動で記述するリソース集約的なタスクは、アノテーションプロセスにおいて依然として必要です。
本稿では, ゼロショット学習手法を用いて, 弱いボックスアノテーションに, SAMを用いた画素レベルのデライン化を回避できる可能性について検討する。
具体的には、SAMがボックスアノテーションからピクセルレベルのアノテーションを生成する能力を活用し、SAM生成ラベルを使用してセグメンテーションモデルをトレーニングする。
提案したSAM-Assisted molecular-empowered learning (SAM-L) は,弱いボックスアノテーションを必要とせず,レイアノテータのラベル付け作業の軽減を図っている。
これは、アノテーションの精度や深層学習に基づくセグメンテーションの性能を損なうことなく達成される。
本研究は,非エキスパートアノテータのみに頼って,病理画像のセグメンテーションをトレーニングするためのアノテーションプロセスの民主化において,大きな進展を示す。
関連論文リスト
- DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images [105.46086313858062]
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
論文 参考訳(メタデータ) (2024-10-04T00:38:29Z) - Medical Image Segmentation with SAM-generated Annotations [12.432602118806573]
医療データのアノテーションツールとしてSegment Anything Model(SAM)の性能を評価する。
我々は,MSD (Medicical Decathlon) のCT (Computerd tomography) タスク上で,いわゆる「擬似ラベル」を生成する。
擬似ラベルは、弱教師付きでUNetモデルをトレーニングするために、地上の真理ラベルの代わりに使用される。
論文 参考訳(メタデータ) (2024-09-30T12:43:20Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Learning with minimal effort: leveraging in silico labeling for cell and
nucleus segmentation [0.6465251961564605]
In Silico Labeling (ISL) をセグメンテーションタスクの事前学習手法として用いることを提案する。
いくつかのトレーニングセットサイズでセグメンテーション性能を比較することで、このようなスキームは必要なアノテーションの数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-01-10T11:35:14Z) - Semi-Supervised and Self-Supervised Collaborative Learning for Prostate
3D MR Image Segmentation [8.527048567343234]
MR画像分割は,多くの臨床応用において重要な役割を担っている。
ディープラーニング(DL)は、最近、様々な画像セグメンテーションタスクにおいて最先端または人間レベルのパフォーマンスを達成した。
本研究では,前立腺MR画像セグメンテーションのための半教師付き,自己教師型協調学習フレームワークを訓練することを目的とする。
論文 参考訳(メタデータ) (2022-11-16T11:40:13Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Manifold-driven Attention Maps for Weakly Supervised Segmentation [9.289524646688244]
本稿では,視覚的に有意な領域を強化するために,多様体駆動型注意ネットワークを提案する。
提案手法は,余分な計算を必要とせずに,推論中により優れた注意マップを生成できる。
論文 参考訳(メタデータ) (2020-04-07T00:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。