論文の概要: Towards Classifying Histopathological Microscope Images as Time Series Data
- arxiv url: http://arxiv.org/abs/2506.15977v1
- Date: Thu, 19 Jun 2025 02:51:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.916929
- Title: Towards Classifying Histopathological Microscope Images as Time Series Data
- Title(参考訳): 時系列データとしての病理顕微鏡像の分類に向けて
- Authors: Sungrae Hong, Hyeongmin Park, Youngsin Ko, Sol Lee, Bryan Wong, Mun Yong Yi,
- Abstract要約: 本稿では,顕微鏡画像を時系列データとして分類する手法を提案する。
動的時系列ウォーピング(DTW)を利用して、可変長の画像列を固定長ターゲットに適合させる手法を提案する。
提案手法の有効性は,様々なベースラインと性能を比較し,様々な推論戦略の利点を示すことで実証する。
- 参考スコア(独自算出の注目度): 2.6553713413568913
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the frontline data for cancer diagnosis, microscopic pathology images are fundamental for providing patients with rapid and accurate treatment. However, despite their practical value, the deep learning community has largely overlooked their usage. This paper proposes a novel approach to classifying microscopy images as time series data, addressing the unique challenges posed by their manual acquisition and weakly labeled nature. The proposed method fits image sequences of varying lengths to a fixed-length target by leveraging Dynamic Time-series Warping (DTW). Attention-based pooling is employed to predict the class of the case simultaneously. We demonstrate the effectiveness of our approach by comparing performance with various baselines and showcasing the benefits of using various inference strategies in achieving stable and reliable results. Ablation studies further validate the contribution of each component. Our approach contributes to medical image analysis by not only embracing microscopic images but also lifting them to a trustworthy level of performance.
- Abstract(参考訳): がん診断のための最前線データとして、顕微鏡的病理像は、迅速かつ正確な治療を患者に提供するために不可欠である。
しかし、その実践的価値にもかかわらず、ディープラーニングコミュニティは、その使い方をほとんど見落としてきた。
本稿では,顕微鏡画像を時系列データとして分類する手法を提案する。
提案手法は,動的時系列ウォーピング(DTW)を利用して,可変長の画像列を固定長ターゲットに適合させる。
ケースのクラスを同時に予測するために、アテンションベースのプーリングが使用される。
提案手法の有効性は,様々なベースラインと性能を比較し,安定かつ信頼性の高い結果を得る上で,様々な推論戦略を用いることの利点を示す。
アブレーション研究は各成分の寄与をさらに検証する。
提案手法は, 顕微鏡画像を受け入れるだけでなく, 信頼性の高い評価レベルまで引き上げることによって, 医用画像解析に寄与する。
関連論文リスト
- Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Realistic Data Enrichment for Robust Image Segmentation in
Histopathology [2.248423960136122]
拡散モデルに基づく新しい手法を提案し、不均衡なデータセットを、表現不足なグループから有意な例で拡張する。
本手法は,限定的な臨床データセットを拡張して,機械学習パイプラインのトレーニングに適したものにする。
論文 参考訳(メタデータ) (2023-04-19T09:52:50Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Self-Supervised Endoscopic Image Key-Points Matching [1.3764085113103222]
本稿では,深層学習技術に基づく内視鏡画像マッチングのための新しい自己教師型アプローチを提案する。
提案手法は,手作りの標準的なローカル特徴記述子よりも精度とリコールの点で優れていた。
論文 参考訳(メタデータ) (2022-08-24T10:47:21Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。