論文の概要: HATNet: An End-to-End Holistic Attention Network for Diagnosis of Breast
Biopsy Images
- arxiv url: http://arxiv.org/abs/2007.13007v1
- Date: Sat, 25 Jul 2020 20:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:00:22.571364
- Title: HATNet: An End-to-End Holistic Attention Network for Diagnosis of Breast
Biopsy Images
- Title(参考訳): HATNet:乳腺生検画像診断のためのエンドツーエンドのホロスティック注意ネットワーク
- Authors: Sachin Mehta, Ximing Lu, Donald Weaver, Joann G. Elmore, Hannaneh
Hajishirzi, Linda Shapiro
- Abstract要約: 乳房生検画像の分類を行うために,新しい注意型ネットワークであるHATNetを導入する。
自己注意を用いてグローバル情報をエンコードし、明示的な監督なしに臨床的に関係のある組織構造から表現を学習することができる。
本分析の結果,HATNetは臨床的に関連のある構造から表現を学習し,ヒト病理学者の分類精度に適合していることが判明した。
- 参考スコア(独自算出の注目度): 39.82731558467617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training end-to-end networks for classifying gigapixel size histopathological
images is computationally intractable. Most approaches are patch-based and
first learn local representations (patch-wise) before combining these local
representations to produce image-level decisions. However, dividing large
tissue structures into patches limits the context available to these networks,
which may reduce their ability to learn representations from clinically
relevant structures. In this paper, we introduce a novel attention-based
network, the Holistic ATtention Network (HATNet) to classify breast biopsy
images. We streamline the histopathological image classification pipeline and
show how to learn representations from gigapixel size images end-to-end. HATNet
extends the bag-of-words approach and uses self-attention to encode global
information, allowing it to learn representations from clinically relevant
tissue structures without any explicit supervision. It outperforms the previous
best network Y-Net, which uses supervision in the form of tissue-level
segmentation masks, by 8%. Importantly, our analysis reveals that HATNet learns
representations from clinically relevant structures, and it matches the
classification accuracy of human pathologists for this challenging test set.
Our source code is available at \url{https://github.com/sacmehta/HATNet}
- Abstract(参考訳): ギガピクセルサイズの病理像を分類するためのエンドツーエンドネットワークの訓練は、計算的に難解である。
ほとんどのアプローチはパッチベースで、最初にローカル表現(パッチ単位で)を学習し、これらのローカル表現を組み合わせてイメージレベルの意思決定を行う。
しかし、大きな組織構造をパッチに分割すると、これらのネットワークで利用可能なコンテキストが制限され、臨床に関係のある構造から表現を学ぶ能力が低下する可能性がある。
本稿では,乳房生検像を分類する新しい注意型ネットワークである総観的注意ネットワーク(hatnet)を提案する。
病理組織像分類パイプラインを合理化し,ギガピクセルサイズの画像からエンドツーエンドで表現を学習する方法を示す。
HATNetは、back-of-wordsアプローチを拡張し、自己注意を使ってグローバル情報をエンコードし、明示的な監督なしに臨床的に関連する組織構造から表現を学習する。
組織レベルのセグメンテーションマスクの形で監視を行う、以前のベストネットワークy-netを8%上回っている。
そこで本研究では,HATNetが臨床関連構造から表現を学習し,ヒト病理医の分類精度を比較検討した。
我々のソースコードは \url{https://github.com/sacmehta/HATNet} で入手できる。
関連論文リスト
- PI-Att: Topology Attention for Segmentation Networks through Adaptive Persistence Image Representation [1.4680035572775534]
我々は,新たなトポロジ認識損失関数を導入し,ネットワークに対して,地上の真実と予測マップのトポロジ的相違を最小化するよう強制する。
セグメント化ネットワーク損失の文脈において,各マップのトポロジを永続画像表現によって定量化する。
提案したPI-Att損失は, 大動脈と大血管のセグメンテーションの2つの異なるデータセットで評価された。
論文 参考訳(メタデータ) (2024-08-15T09:06:49Z) - Unleashing the Power of Depth and Pose Estimation Neural Networks by
Designing Compatible Endoscopic Images [12.412060445862842]
内視鏡画像の特性を詳細に解析し、画像とニューラルネットワークの互換性を改善する。
まず,完全な画像情報の代わりに部分的な画像情報を入力するMask Image Modelling (MIM) モジュールを導入する。
第2に、画像とニューラルネットワークの互換性を明確に向上させるために、内視鏡画像を強化する軽量ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-14T02:19:38Z) - Human-machine Interactive Tissue Prototype Learning for Label-efficient
Histopathology Image Segmentation [18.755759024796216]
ディープ・ニューラル・ネットワークは、画像セグメンテーションを大幅に進歩させたが、通常は豊富なデータを必要とする。
本稿では,ラベル効率のよい組織原型辞書構築パイプラインを提案し,得られた原型を用いて病理組織像のセグメンテーションを導くことを提案する。
人間の機械的対話型組織プロトタイプ学習法は,完全教師付きベースラインと同等のセグメンテーション性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-26T06:17:21Z) - Omni-Seg: A Single Dynamic Network for Multi-label Renal Pathology Image
Segmentation using Partially Labeled Data [6.528287373027917]
非癌病理学では、学習アルゴリズムにより、より包括的な組織型を同時に調べることができる。
それまでは、ドメイン固有の知識に合わせて複数のセグメンテーションネットワークをトレーニングする必要があった。
パッチワイドの病理画像15万点から学習することにより,提案したOmni-Segネットワークはセグメンテーション精度が向上し,資源消費量も低減した。
論文 参考訳(メタデータ) (2021-12-23T16:02:03Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。