論文の概要: CleanCTG: A Deep Learning Model for Multi-Artefact Detection and Reconstruction in Cardiotocography
- arxiv url: http://arxiv.org/abs/2508.10928v1
- Date: Mon, 11 Aug 2025 11:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.580481
- Title: CleanCTG: A Deep Learning Model for Multi-Artefact Detection and Reconstruction in Cardiotocography
- Title(参考訳): cleanCTG:心電図における多要素検出と再構成のためのディープラーニングモデル
- Authors: Sheng Wong, Beth Albert, Gabriel Davis Jones,
- Abstract要約: マルチスケールの畳み込みとコンテキスト対応のクロスアテンションにより,まず複数のアーティファクトタイプを識別するエンド・ツー・エンドのデュアルステージモデルであるCleanCTGを提案する。
合成データでは、CureCTGは完全人工物検出(AU-ROC = 1.00)と劣化セグメントの平均二乗誤差(MSE)を2.74×10-4に削減した。
933の臨床的CTG記録において、デュース・レッドマン・システムと統合されると、識別された痕跡は特異性(80.70%から82.70%)を高め、中央値の判断時間を33%短縮した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cardiotocography (CTG) is essential for fetal monitoring but is frequently compromised by diverse artefacts which obscure true fetal heart rate (FHR) patterns and can lead to misdiagnosis or delayed intervention. Current deep-learning approaches typically bypass comprehensive noise handling, applying minimal preprocessing or focusing solely on downstream classification, while traditional methods rely on simple interpolation or rule-based filtering that addresses only missing samples and fail to correct complex artefact types. We present CleanCTG, an end-to-end dual-stage model that first identifies multiple artefact types via multi-scale convolution and context-aware cross-attention, then reconstructs corrupted segments through artefact-specific correction branches. Training utilised over 800,000 minutes of physiologically realistic, synthetically corrupted CTGs derived from expert-verified "clean" recordings. On synthetic data, CleanCTG achieved perfect artefact detection (AU-ROC = 1.00) and reduced mean squared error (MSE) on corrupted segments to 2.74 x 10^-4 (clean-segment MSE = 2.40 x 10^-6), outperforming the next best method by more than 60%. External validation on 10,190 minutes of clinician-annotated segments yielded AU-ROC = 0.95 (sensitivity = 83.44%, specificity 94.22%), surpassing six comparator classifiers. Finally, when integrated with the Dawes-Redman system on 933 clinical CTG recordings, denoised traces increased specificity (from 80.70% to 82.70%) and shortened median time to decision by 33%. These findings suggest that explicit artefact removal and signal reconstruction can both maintain diagnostic accuracy and enable shorter monitoring sessions, offering a practical route to more reliable CTG interpretation.
- Abstract(参考訳): 心電図 (CTG) は胎児モニタリングに必須であるが, 真の胎児心拍数 (FHR) のパターンを曖昧にし, 誤診や治療の遅れにつながる多彩なアーチファクトによってしばしば妥協される。
現在のディープラーニングアプローチは、一般的に、包括的なノイズ処理を回避し、最小限の事前処理を適用したり、下流の分類にのみ焦点をあてる一方で、従来の手法では、欠落したサンプルのみに対処し、複雑なアーティファクトタイプを修正できない単純な補間やルールベースのフィルタリングに依存している。
cleanCTGは、複数のアーチファクトタイプをマルチスケールのコンボリューションとコンテキスト対応のクロスアテンションで識別し、アーティファクト固有の修正ブランチによって破損したセグメントを再構築する。
専門家が検証した「クリーン」録音から得られた生理的、現実的で、合成的に破損したCTGを80,000分以上利用した。
合成データでは、CureCTGは完全人工物検出(AU-ROC = 1.00)と劣化セグメントの平均二乗誤差(MSE)を2.74 x 10^-4(クリーンセグメントMSE = 2.40 x 10^-6)に削減し、次のベストメソッドを60%以上上回った。
10,190分でAU-ROC = 0.95(感度 = 83.44%、特異性94.22%)となり、6つのコンパレータ分類器を超えた。
最後に、933の臨床CTG記録にダウズ・レッドマン・システムと統合すると、鑑別された痕跡は特異性(80.70%から82.70%)を高め、中央値の時間を33%短縮した。
以上の結果から, 明確なアーチファクト除去と信号再構成は, 診断精度を維持し, より信頼性の高いCTG解釈への実用的な経路を提供するとともに, より短いモニタリングセッションを可能にすることが示唆された。
関連論文リスト
- Deep Learning Enabled Segmentation, Classification and Risk Assessment of Cervical Cancer [0.0]
世界で4番目に多い女性がんの原因である頸部がんは、パパ・スミアテストによる早期発見が必要である。
本研究では,細胞の境界を区分けし,がん細胞を分離するために境界ボックスを描画することにより,焦点を絞った解析を行った。
様々な解像度とアスペクト比の画像を効果的に処理するために,新しいディープラーニングアーキテクチャであるMulti-Resolution Fusion Deep Convolutional Networkを提案した。
論文 参考訳(メタデータ) (2025-05-21T13:25:27Z) - Fast-staged CNN Model for Accurate pulmonary diseases and Lung cancer detection [0.0]
本研究は, 肺がん, 特に肺結節の検出を目的とした深層学習モデルと, 胸部X線写真を用いた8つの肺病理組織について検討した。
アンサンブル法とトランスファーラーニングを利用した2段階分類システムを用いて,最初のトリアージ画像を正規あるいは異常に分類する。
このモデルでは、最高の性能の精度は77%、感度は0.713、特異度は0.776、AUCスコアは0.888である。
論文 参考訳(メタデータ) (2024-12-16T11:47:07Z) - SQUWA: Signal Quality Aware DNN Architecture for Enhanced Accuracy in Atrial Fibrillation Detection from Noisy PPG Signals [37.788535094404644]
心房細動(AF)は脳卒中、心臓病、死亡のリスクを著しく増大させる。
光胸腺造影(PPG)信号は、運動人工物や、しばしば起立条件で遭遇する他の要因による腐敗に影響を受けやすい。
本研究では,一部劣化したPSGから正確な予測の維持方法を学習するための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2024-04-15T01:07:08Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Learning to Automatically Diagnose Multiple Diseases in Pediatric Chest
Radiographs Using Deep Convolutional Neural Networks [0.4697611383288171]
ディープ畳み込みニューラルネットワーク(D-CNN)は成人の胸部X線写真(CXR)スキャンにおいて顕著な性能を示した。
本稿では,5,017名の小児CXRスキャンの大規模なデータセットを遡及的に収集し,それぞれを経験者によって手動でラベル付けする。
その後、D-CNNモデルは3,550個の注釈付きスキャンで訓練され、複数の小児肺病理を自動分類する。
論文 参考訳(メタデータ) (2021-08-14T08:14:52Z) - Automatic Breast Lesion Detection in Ultrafast DCE-MRI Using Deep
Learning [0.0]
超高速DCE-MRIにおける乳房病変検出のためのディープラーニングによるコンピュータ支援検出(CADe)手法を提案する。
動的取得の初期段階から得られる3次元空間情報と時間情報の両方を用いる。
論文 参考訳(メタデータ) (2021-02-07T22:03:39Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Lung Infection Quantification of COVID-19 in CT Images with Deep
Learning [41.35413216175024]
深層学習システムは、関心のある感染症領域を自動的に定量化するために開発された。
感染領域分割のための放射線科医を支援するためのループ内ヒト戦略
論文 参考訳(メタデータ) (2020-03-10T11:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。