論文の概要: Report-Guided Automatic Lesion Annotation for Deep Learning-Based
Prostate Cancer Detection in bpMRI
- arxiv url: http://arxiv.org/abs/2112.05151v1
- Date: Thu, 9 Dec 2021 15:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 04:28:01.082278
- Title: Report-Guided Automatic Lesion Annotation for Deep Learning-Based
Prostate Cancer Detection in bpMRI
- Title(参考訳): bpMRIにおけるディープラーニングによる前立腺癌検出のための自動病変アノテーションの報告
- Authors: Joeran S. Bosma, Anindo Saha, Matin Hosseinzadeh, Ilse Slootweg,
Maarten de Rooij, and Henkjan Huisman
- Abstract要約: 臨床報告に基づく自動アノテーションは手動ラベル付けのボトルネックを克服する可能性がある。
臨床的に有意な前立腺癌(csPCa)のアノテーションが得られた。
自動ラベル付け試験によるトレーニングセットの強化は、患者ベースの診断領域を改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based diagnostic performance increases with more annotated
data, but manual annotation is a bottleneck in most fields. Experts evaluate
diagnostic images during clinical routine, and write their findings in reports.
Automatic annotation based on clinical reports could overcome the manual
labelling bottleneck. We hypothesise that dense annotations for detection tasks
can be generated using model predictions, guided by sparse information from
these reports. To demonstrate efficacy, we generated clinically significant
prostate cancer (csPCa) annotations, guided by the number of clinically
significant findings in the radiology reports. We included 7,756 prostate MRI
examinations, of which 3,050 were manually annotated and 4,706 were
automatically annotated. We evaluated the automatic annotation quality on the
manually annotated subset: our score extraction correctly identified the number
of csPCa lesions for $99.3\%$ of the reports and our csPCa segmentation model
correctly localised $83.8 \pm 1.1\%$ of the lesions. We evaluated prostate
cancer detection performance on 300 exams from an external centre with
histopathology-confirmed ground truth. Augmenting the training set with
automatically labelled exams improved patient-based diagnostic area under the
receiver operating characteristic curve from $88.1\pm 1.1\%$ to $89.8\pm 1.0\%$
($P = 1.2 \cdot 10^{-4}$) and improved lesion-based sensitivity at one false
positive per case from $79.2 \pm 2.8\%$ to $85.4 \pm 1.9\%$ ($P<10^{-4}$), with
$mean \pm std.$ over 15 independent runs. This improved performance
demonstrates the feasibility of our report-guided automatic annotations. Source
code is made publicly available at
https://github.com/DIAGNijmegen/Report-Guided-Annotation. Best csPCa detection
algorithm is made available at
https://grand-challenge.org/algorithms/bpmri-cspca-detection-report-guided-annotations/.
- Abstract(参考訳): 深層学習に基づく診断性能は、より注釈付きデータによって向上するが、ほとんどの分野で手動アノテーションがボトルネックとなっている。
専門家は臨床経過中に診断画像を評価し、その結果をレポートに書き込む。
臨床報告に基づく自動アノテーションは手動ラベル付けのボトルネックを克服する可能性がある。
我々は,これらの報告から得られたスパース情報からモデル予測を用いて,検出タスクに対する密接なアノテーションを生成できると仮定する。
有効性を示すために, 臨床学的に有意な前立腺癌 (cspca) の注釈が得られた。
対象は前立腺MRI7,756例で,3,050例,4,706例であった。
我々は手動による注釈付サブセットの自動アノテーションの品質を評価し, スコア抽出により, csPCa 病変の数を99.3 %$で正しく同定し, csPCa セグメント化モデルでは, 83.8 pm 1.1 %$で正しく同定した。
前立腺癌検出能は, 病理組織学的確証により, 内科300検診で評価した。
自動ラベル付け試験によるトレーニングセットの強化により、患者ベースの診断領域が85.1\pm 1.1\%$から89.8\pm 1.0\%$ (p = 1.2 \cdot 10^{-4}$)に改善され、病変ベースの感度が79.2 \pm 2.8\%$から85.4 \pm 1.9\%$ (p<10^{-4}$) まで向上した。
15ドル以上 独立したランニング
この改善されたパフォーマンスは、レポート誘導自動アノテーションの実現可能性を示している。
ソースコードはhttps://github.com/DIAGNijmegen/Report-Guided-Annotationで公開されている。
最高のcsPCa検出アルゴリズムはhttps://grand-challenge.org/algorithms/bpmri-cspca-detection-report-guided- Annotations/で公開されている。
関連論文リスト
- Statistical validation of a deep learning algorithm for dental anomaly
detection in intraoral radiographs using paired data [0.0]
本研究は, 深層学習アルゴリズムを用いた歯科医師の検出性能と, 画像評価を行う歯科医師の先行成績を比較した。
これらの結果の統計的意義は、マクネマール検定と二項仮説検定の両方を用いて広く証明されている。
論文 参考訳(メタデータ) (2024-02-01T13:46:36Z) - How Low Can You Go? Surfacing Prototypical In-Distribution Samples for
Unsupervised Anomaly Detection [56.06401423880554]
教師なし異常検出(UAD)は、ラベルなしの配布データのみをトレーニングすることで、大規模なラベル付け作業を軽減する。
ごく少数のトレーニングサンプルを使用することで、トレーニングデータセット全体のトレーニングと比較して、すでに一致し、場合によっては異常検出も改善できることが示されています。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - DDxT: Deep Generative Transformer Models for Differential Diagnosis [51.25660111437394]
より単純な教師付き学習信号と自己教師付き学習信号で訓練した生成的アプローチが,現在のベンチマークにおいて優れた結果が得られることを示す。
The proposed Transformer-based generative network, named DDxT, autoregressive produce a set of possible pathology,, i. DDx, and predicts the real pathology using a neural network。
論文 参考訳(メタデータ) (2023-12-02T22:57:25Z) - Clinically Acceptable Segmentation of Organs at Risk in Cervical Cancer
Radiation Treatment from Clinically Available Annotations [0.0]
子宮頸癌放射線治療におけるOAR(Organs at Risk)の自動セグメンテーションのためのディープラーニングモデルを学習するためのアプローチを提案する。
我々は、データの不均一性、ラベルノイズ、アノテーションの欠如を最小限に抑えるために、自動データのクリーニングにシンプルな手法を採用している。
そこで本研究では,教師が指導するシステム,アノテーション命令,不確実性誘導学習を利用して,アノテーションの欠如の有無を学習する半教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2023-02-21T13:24:40Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - End-to-end Prostate Cancer Detection in bpMRI via 3D CNNs: Effect of
Attention Mechanisms, Clinical Priori and Decoupled False Positive Reduction [0.0]
本研究では、Bi-parametric MR Imaging (bpMRI) における臨床的に重要な前立腺癌(csa)の自動局在化のための新しい3Dコンピュータ支援診断モデルを提案する。
ディープアテンションメカニズムはその検出ネットワークを駆動し、多解像度で健全な構造と高度に識別可能な特徴次元をターゲットにしている。
CNNベースのモデルは、独立コホートにおける生検で確認された悪性腫瘍を検出するために訓練することができる。
論文 参考訳(メタデータ) (2021-01-08T22:59:30Z) - DDANet: Dual Decoder Attention Network for Automatic Polyp Segmentation [0.3734402152170273]
本稿では,デュアルデコーダアテンションネットワークに基づくDDANet'という新しいアーキテクチャを提案する。
実験では、Kvasir-SEGデータセットで訓練され、見えないデータセットでテストされたモデルは、0.7874のダイス係数、0.7010のmIoU、0.7987のリコール、0.8577の精度を達成した。
論文 参考訳(メタデータ) (2020-12-30T17:52:35Z) - Renal Cell Carcinoma Detection and Subtyping with Minimal Point-Based
Annotation in Whole-Slide Images [3.488702792183152]
全スライド画像からラベルのないデータを取得するのは、ずっと簡単かつ安価です。
半教師付き学習(SSL)は、ラベルのないデータを利用する効果的な方法である。
癌領域を正確に検出するためにSSL方式を用いるフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-12T14:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。