論文の概要: Decoupling Inherent Risk and Early Cancer Signs in Image-based Breast
Cancer Risk Models
- arxiv url: http://arxiv.org/abs/2007.05791v4
- Date: Wed, 16 Sep 2020 12:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:27:59.129201
- Title: Decoupling Inherent Risk and Early Cancer Signs in Image-based Breast
Cancer Risk Models
- Title(参考訳): 画像ベース乳癌リスクモデルにおける遺伝リスクと早期がん症状の分離
- Authors: Yue Liu, Hossein Azizpour, Fredrik Strand, Kevin Smith
- Abstract要約: 3つの異なる基準を用いてネットワークをトレーニングし、肯定的なデータを選択する。
短期リスクはがんの兆候モデルにより推定されるのに対し、長期リスクは本質的なリスクモデルによって推定される。
すべての画像による注意深いトレーニングは、早期がんの兆候と固有のリスクを混同し、最適以下の見積もりをもたらす。
- 参考スコア(独自算出の注目度): 9.617060529449859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to accurately estimate risk of developing breast cancer would be
invaluable for clinical decision-making. One promising new approach is to
integrate image-based risk models based on deep neural networks. However, one
must take care when using such models, as selection of training data influences
the patterns the network will learn to identify. With this in mind, we trained
networks using three different criteria to select the positive training data
(i.e. images from patients that will develop cancer): an inherent risk model
trained on images with no visible signs of cancer, a cancer signs model trained
on images containing cancer or early signs of cancer, and a conflated model
trained on all images from patients with a cancer diagnosis. We find that these
three models learn distinctive features that focus on different patterns, which
translates to contrasts in performance. Short-term risk is best estimated by
the cancer signs model, whilst long-term risk is best estimated by the inherent
risk model. Carelessly training with all images conflates inherent risk with
early cancer signs, and yields sub-optimal estimates in both regimes. As a
consequence, conflated models may lead physicians to recommend preventative
action when early cancer signs are already visible.
- Abstract(参考訳): 乳がんの発症リスクを正確に推定する能力は、臨床意思決定に有用である。
有望な新しいアプローチの1つは、ディープニューラルネットワークに基づく画像ベースのリスクモデルを統合することである。
しかし、トレーニングデータの選択がネットワークが識別するパターンに影響を与えるため、そのようなモデルを使用する場合には注意する必要がある。
このことを念頭に置いて,ポジティブなトレーニングデータ(すなわち,がんを発症する患者からのイメージ)を選択するための3つの異なる基準を用いてネットワークを訓練した。がんの徴候のない画像でトレーニングされた固有のリスクモデル,がんや早期がんの徴候を含む画像でトレーニングされた癌標識モデル,がん診断を受けた患者のすべての画像でトレーニングされた畳み込みモデルである。
これらの3つのモデルは、異なるパターンに焦点を当てた特徴を学習し、パフォーマンスのコントラストに変換する。
短期リスクはがんの兆候モデルにより推定され、長期リスクは固有のリスクモデルによって推定される。
すべての画像に対する不注意なトレーニングは、早期のがん徴候に固有のリスクを和らげ、両方の体制において最適以下の推定をもたらす。
その結果、凝縮モデルにより、早期がんの徴候が既に見えている場合、医師は予防措置を推奨される可能性がある。
関連論文リスト
- Convolutional neural network classification of cancer cytopathology images: taking breast cancer as an example [40.3927727959038]
本稿では,画像の高速分類に畳み込みニューラルネットワーク(CNN)を用いる手法を提案する。
病理像を良性群と悪性群に迅速かつ自動分類することができる。
本手法は乳がんの病理像の分類における精度を効果的に向上することを示す。
論文 参考訳(メタデータ) (2024-04-12T07:08:05Z) - Leveraging Transformers to Improve Breast Cancer Classification and Risk
Assessment with Multi-modal and Longitudinal Data [3.982926115291704]
マルチモーダルトランス (MMT) はマンモグラフィーと超音波を相乗的に利用するニューラルネットワークである。
MMTは、現在の検査と以前の画像を比較することで、時間的組織変化を追跡する。
5年間のリスク予測では、MMTはAUROCの0.826を達成し、従来のマンモグラフィーベースのリスクモデルより優れている。
論文 参考訳(メタデータ) (2023-11-06T16:01:42Z) - Post-Hoc Explainability of BI-RADS Descriptors in a Multi-task Framework
for Breast Cancer Detection and Segmentation [48.08423125835335]
MT-BI-RADSは乳房超音波(BUS)画像における腫瘍検出のための新しい深層学習手法である。
放射線科医が腫瘍の悪性度を予測するための意思決定プロセスを理解するための3つのレベルの説明を提供する。
論文 参考訳(メタデータ) (2023-08-27T22:07:42Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Breast Cancer Induced Bone Osteolysis Prediction Using Temporal
Variational Auto-Encoders [65.95959936242993]
骨分解性骨病変の進展を正確に予測し,可視化する深層学習フレームワークを開発した。
乳癌患者の骨格関連事象(SRE)を予防するための治療戦略の計画と評価を支援する。
論文 参考訳(メタデータ) (2022-03-20T21:00:10Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Implementation of Convolutional Neural Network Architecture on 3D
Multiparametric Magnetic Resonance Imaging for Prostate Cancer Diagnosis [0.0]
磁気共鳴画像における前立腺病変の自動分類のための新しいディープラーニング手法を提案する。
提案手法は受信器動作特性曲線値0.87の領域で分類性能を達成した。
提案フレームワークは前立腺癌における医用画像の解釈を補助し,不必要な生検を減らす可能性を反映している。
論文 参考訳(メタデータ) (2021-12-29T16:47:52Z) - SurvODE: Extrapolating Gene Expression Distribution for Early Cancer
Identification [8.868473888198597]
任意の時点における遺伝子発現分布をシミュレートできる新しい手法を提案する。
我々の可視化結果とさらなる分析は、癌の早期における発現をシミュレートするために、我々の手法をどのように利用できるかを示している。
論文 参考訳(メタデータ) (2021-11-30T02:49:11Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。