論文の概要: Multi-scale Domain-adversarial Multiple-instance CNN for Cancer Subtype
Classification with Unannotated Histopathological Images
- arxiv url: http://arxiv.org/abs/2001.01599v2
- Date: Thu, 2 Apr 2020 08:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 02:29:01.729186
- Title: Multi-scale Domain-adversarial Multiple-instance CNN for Cancer Subtype
Classification with Unannotated Histopathological Images
- Title(参考訳): 非注釈的病理組織像を有する癌サブタイプ分類のための多スケールドメイン・adversarial multi-instance cnn
- Authors: Noriaki Hashimoto, Daisuke Fukushima, Ryoichi Koga, Yusuke Takagi,
Kaho Ko, Kei Kohno, Masato Nakaguro, Shigeo Nakamura, Hidekata Hontani and
Ichiro Takeuchi
- Abstract要約: 我々は,マルチインスタンス,ドメイン逆数,マルチスケール学習フレームワークを効果的に組み合わせ,CNNに基づく癌サブタイプ分類法を開発した。
分類性能は標準のCNNや他の従来の方法よりも有意に優れており, 精度は標準の病理医と比較して良好であった。
- 参考スコア(独自算出の注目度): 16.02231907106384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method for cancer subtype classification from
histopathological images, which can automatically detect tumor-specific
features in a given whole slide image (WSI). The cancer subtype should be
classified by referring to a WSI, i.e., a large-sized image (typically
40,000x40,000 pixels) of an entire pathological tissue slide, which consists of
cancer and non-cancer portions. One difficulty arises from the high cost
associated with annotating tumor regions in WSIs. Furthermore, both global and
local image features must be extracted from the WSI by changing the
magnifications of the image. In addition, the image features should be stably
detected against the differences of staining conditions among the
hospitals/specimens. In this paper, we develop a new CNN-based cancer subtype
classification method by effectively combining multiple-instance, domain
adversarial, and multi-scale learning frameworks in order to overcome these
practical difficulties. When the proposed method was applied to malignant
lymphoma subtype classifications of 196 cases collected from multiple
hospitals, the classification performance was significantly better than the
standard CNN or other conventional methods, and the accuracy compared favorably
with that of standard pathologists.
- Abstract(参考訳): そこで本研究では,各スライド画像中の腫瘍特異な特徴を自動的に検出する,病理組織像からの癌サブタイプ分類法を提案する。
がんのサブタイプは、がんと非がん部分からなる、病理組織スライド全体の大きな画像(典型的には40,000×40,000ピクセル)を参照して分類すべきである。
WSIsの腫瘍領域のアノテートに伴う高コストから1つの困難が生じる。
さらに、画像の倍率を変更することにより、グローバル画像とローカル画像の両方の特徴をwsiから抽出する必要がある。
また, 病院における染色条件の違いに対して, 画像の特徴を安定的に検出する必要がある。
本稿では,これらの課題を克服するために,マルチインスタンス,ドメイン逆数,マルチスケール学習フレームワークを効果的に組み合わせたCNNベースの癌サブタイプ分類法を提案する。
提案法を複数の病院から採取した196例の悪性リンパ腫亜型分類に応用した場合, 分類性能は標準cnnや他の従来の方法よりも有意に良好であり, 病理組織学的に比較した精度は良好であった。
関連論文リスト
- Finding Regions of Interest in Whole Slide Images Using Multiple Instance Learning [0.23301643766310368]
病理ラベリングは通常、タイルレベルではなくスライドレベルで行われるため、WSI(Whole Slide Images)はAIベース/AI経由の分析に対する特別な課題である。
本稿では,がんの表現型を正確に予測するために,弱教師付き多重インスタンス学習(MIL)手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T19:33:41Z) - RACR-MIL: Weakly Supervised Skin Cancer Grading using Rank-Aware
Contextual Reasoning on Whole Slide Images [1.7625232415232948]
皮膚扁平上皮癌(cSCC)はアメリカ合衆国で2番目に多い皮膚癌である。
そこで我々は,c SCC WSI に対する弱教師付きグレーディング手法を提案する。
提案モデルでは,各WSIをタイル付きパッチの袋に変換し,注意に基づくマルチスタンス学習を利用してWSIレベルのグレードを割り当てる。
論文 参考訳(メタデータ) (2023-08-29T20:25:49Z) - CAMIL: Context-Aware Multiple Instance Learning for Cancer Detection and Subtyping in Whole Slide Images [3.1118773046912382]
がん診断のためのコンテキスト認識型マルチインスタンス学習(CAMIL)アーキテクチャを提案する。
CAMILは隣接する制約のある注意を取り入れて、WSI(Whole Slide Images)内のタイル間の依存関係を考慮し、コンテキスト制約を事前の知識として統合する。
CAMILは非小細胞肺癌(TCGA-NSCLC)の亜型であり,リンパ節転移は検出され,AUCは97.5%,95.9%,88.1%であった。
論文 参考訳(メタデータ) (2023-05-09T10:06:37Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Selecting Regions of Interest in Large Multi-Scale Images for Cancer
Pathology [0.0]
顕微鏡スライドの高解像度スキャンは、がん病理学者が、複数のスケールと解像度でスライド画像内の特徴の測定に基づいて、がんの存在、サブタイプ、および重症度に関する結論に達するのに十分な情報を提供する。
肝癌,肝細胞癌 (HCC) と胆管癌 (CC) の2種類の1種を含む肝病理組織スライドにおいて,WSIを段階的に拡大して興味領域(ROI)を検出するための強化学習とビームサーチに基づくアプローチを検討する。
これらのROIは病理医に直接提示され、測定と診断を助けるか、または使用される。
論文 参考訳(メタデータ) (2020-07-03T15:27:41Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Breast Cancer Histopathology Image Classification and Localization using
Multiple Instance Learning [2.4178424543973267]
診断のための顕微鏡組織像を解析するためのコンピュータ支援病理学は、診断のコストと遅延をもたらす可能性がある。
病理学における深層学習は、分類とローカライゼーションのタスクにおいて最先端のパフォーマンスを達成した過去10年間に注目されている。
本稿では,BreakHISとBACHの2つのデータセットの分類とローカライゼーション結果について述べる。
論文 参考訳(メタデータ) (2020-02-16T10:29:16Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。