論文の概要: OCELOT: Overlapped Cell on Tissue Dataset for Histopathology
- arxiv url: http://arxiv.org/abs/2303.13110v2
- Date: Fri, 24 Mar 2023 03:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 11:11:54.841023
- Title: OCELOT: Overlapped Cell on Tissue Dataset for Histopathology
- Title(参考訳): OCELOT:病理組織学のための組織データセット上のオーバーラップ細胞
- Authors: Jeongun Ryu, Aaron Valero Puche, JaeWoong Shin, Seonwook Park, Biagio
Brattoli, Jinhee Lee, Wonkyung Jung, Soo Ick Cho, Kyunghyun Paeng, Chan-Young
Ock, Donggeun Yoo, S\'ergio Pereira
- Abstract要約: 組織学における細胞検出のための細胞間関係研究のためのデータセットであるOCELOTをリリースする。
細胞と組織の両方のタスクを同時に学習できるマルチタスク学習手法を提案する。
特にOCELOTテストセットでは、F1スコアが最大6.79改善されている。
- 参考スコア(独自算出の注目度): 13.691924123273004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cell detection is a fundamental task in computational pathology that can be
used for extracting high-level medical information from whole-slide images. For
accurate cell detection, pathologists often zoom out to understand the
tissue-level structures and zoom in to classify cells based on their morphology
and the surrounding context. However, there is a lack of efforts to reflect
such behaviors by pathologists in the cell detection models, mainly due to the
lack of datasets containing both cell and tissue annotations with overlapping
regions. To overcome this limitation, we propose and publicly release OCELOT, a
dataset purposely dedicated to the study of cell-tissue relationships for cell
detection in histopathology. OCELOT provides overlapping cell and tissue
annotations on images acquired from multiple organs. Within this setting, we
also propose multi-task learning approaches that benefit from learning both
cell and tissue tasks simultaneously. When compared against a model trained
only for the cell detection task, our proposed approaches improve cell
detection performance on 3 datasets: proposed OCELOT, public TIGER, and
internal CARP datasets. On the OCELOT test set in particular, we show up to
6.79 improvement in F1-score. We believe the contributions of this paper,
including the release of the OCELOT dataset at
https://lunit-io.github.io/research/publications/ocelot are a crucial starting
point toward the important research direction of incorporating cell-tissue
relationships in computation pathology.
- Abstract(参考訳): 細胞検出は計算病理学の基本的な課題であり、全スライディング画像から高レベルの医療情報を抽出するのに使用できる。
正確な細胞検出のために、病理学者は組織レベルの構造を理解するためにズームアウトし、その形態と周囲の状況に基づいて細胞を分類する。
しかしながら、細胞検出モデルにおける病理学者のこのような行動を反映しようとする努力の欠如は、主に重複した領域を持つ細胞と組織の両方を含むデータセットの欠如によるものである。
この制限を克服するために,組織学における細胞検出のための細胞間関係の研究を目的としたデータセットOCELOTを提案する。
OCELOTは複数の臓器から取得した画像に重複する細胞および組織アノテーションを提供する。
この設定内では,細胞と組織の両方のタスクを同時に学習できるマルチタスク学習手法も提案する。
細胞検出タスクのみで訓練されたモデルと比較すると,提案手法はOCELOT,パブリックTIGER,内部CARPデータセットの3つのデータセット上での細胞検出性能を向上させる。
特にOCELOTテストセットでは、F1スコアが最大6.79改善されている。
我々は,OCELOTデータセットをhttps://lunit-io.github.io/research/publications/ocelotでリリースすることを含め,本論文のコントリビューションは,計算病理学に細胞-組織関係を組み込む上で重要な研究方向への重要な出発点であると考えている。
関連論文リスト
- CellPilot [3.2096430458509317]
この作業では,自動セグメンテーションとインタラクティブセグメンテーションのギャップを埋めるフレームワークであるCellPilotを導入する。
本モデルは16臓器にまたがる9種類の細胞および腺分節データセットの675,000以上のマスクを用いて訓練した。
このモデルとグラフィカルなユーザインターフェースは、実践者がオープンソースとして利用可能な大規模な注釈付きデータセットを作成するのを支援するように設計されています。
論文 参考訳(メタデータ) (2024-11-23T10:31:10Z) - Cell as Point: One-Stage Framework for Efficient Cell Tracking [54.19259129722988]
本稿では,一段階の効率的なセルトラッキングを実現するために,新しいエンドツーエンドCAPフレームワークを提案する。
CAPは検出またはセグメンテーション段階を放棄し、細胞点の軌跡間の相関を利用して細胞を共同で追跡することでプロセスを単純化する。
Capは強力なセルトラッキング性能を示し、既存の方法の10倍から55倍の効率を示している。
論文 参考訳(メタデータ) (2024-11-22T10:16:35Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - SoftCTM: Cell detection by soft instance segmentation and consideration
of cell-tissue interaction [0.0]
そこで本研究では,モデルの性能に及ぼす真実形式の影響について検討する。
細胞間相互作用は組織分節予測を提供することによって考慮される。
確率マップのインスタンスセグメンテーションの根拠となる真実は、最高のモデル性能をもたらす。
論文 参考訳(メタデータ) (2023-12-19T13:33:59Z) - Single-Cell Deep Clustering Method Assisted by Exogenous Gene
Information: A Novel Approach to Identifying Cell Types [50.55583697209676]
我々は,細胞間のトポロジ的特徴を効率的に捉えるために,注目度の高いグラフオートエンコーダを開発した。
クラスタリング過程において,両情報の集合を統合し,細胞と遺伝子の特徴を再構成し,識別的表現を生成する。
本研究は、細胞の特徴と分布に関する知見を高め、疾患の早期診断と治療の基礎となる。
論文 参考訳(メタデータ) (2023-11-28T09:14:55Z) - DeGPR: Deep Guided Posterior Regularization for Multi-Class Cell
Detection and Counting [14.222014969736993]
マルチクラス細胞検出とカウントは多くの病理診断に必須の課題である。
本稿では,細胞間における識別的特徴の活用を誘導することにより,物体検出を支援するガイド付き後部正則化(DeGPR)を提案する。
2つの公開データセットと、コントリビュートした新しいデータセットであるMuCeD上で、私たちのモデルを検証します。
論文 参考訳(メタデータ) (2023-04-03T06:25:45Z) - CCRL: Contrastive Cell Representation Learning [0.0]
本稿では,H&Eスライドにおけるセル識別のためのコントラストセル表現学習(CCRL)モデルを提案する。
このモデルは、組織の種類によって異なる2つのデータセットにまたがる大きなマージンで、現在利用可能なすべてのセルクラスタリングモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-08-12T18:12:03Z) - CellTrack R-CNN: A Novel End-To-End Deep Neural Network for Cell
Segmentation and Tracking in Microscopy Images [21.747994390120105]
細胞セグメンテーションと細胞追跡を一体化したエンドツーエンドのディープラーニングベースのフレームワークに結合する新しいアプローチを提案します。
本手法はセルセグメンテーションとセル追跡アキュラシーの両方の観点から最先端アルゴリズムを上回る。
論文 参考訳(メタデータ) (2021-02-20T15:55:40Z) - Stretchable Cells Help DARTS Search Better [70.52254306274092]
分化可能なニューラルアーキテクチャサーチ(DARTS)は、柔軟で多様な細胞タイプを発見することに成功している。
現在のDARTS法は、広くて浅い細胞に傾向があり、このトポロジー崩壊は、準最適細胞を誘導する。
本稿では,細胞に伸縮性を持たせることで,ストレッチ可能な細胞に直接サーチを実装できることを示す。
論文 参考訳(メタデータ) (2020-11-18T14:15:51Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。