論文の概要: Development of Automatic Endotracheal Tube and Carina Detection on
Portable Supine Chest Radiographs using Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2206.03017v1
- Date: Tue, 7 Jun 2022 05:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 13:51:29.942578
- Title: Development of Automatic Endotracheal Tube and Carina Detection on
Portable Supine Chest Radiographs using Artificial Intelligence
- Title(参考訳): 自動気管管およびカイナ検出装置の開発 : 人工知能を用いた可搬型胸部X線撮影
- Authors: Chi-Yeh Chen, Min-Hsin Huang, Yung-Nien Sun, Chao-Han Lai
- Abstract要約: 気管内挿管検出は気管内管(ETT)先端とカリーナの位置を必要とする。
胸部X線写真におけるETT先端と椎間板間の距離を求めるため,Mask R-CNNを用いた特徴抽出法を提案する。
- 参考スコア(独自算出の注目度): 1.651690213572386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image quality of portable supine chest radiographs is inherently poor due
to low contrast and high noise. The endotracheal intubation detection requires
the locations of the endotracheal tube (ETT) tip and carina. The goal is to
find the distance between the ETT tip and the carina in chest radiography. To
overcome such a problem, we propose a feature extraction method with Mask
R-CNN. The Mask R-CNN predicts a tube and a tracheal bifurcation in an image.
Then, the feature extraction method is used to find the feature point of the
ETT tip and that of the carina. Therefore, the ETT-carina distance can be
obtained. In our experiments, our results can exceed 96\% in terms of recall
and precision. Moreover, the object error is less than $4.7751\pm 5.3420$ mm,
and the ETT-carina distance errors are less than $5.5432\pm 6.3100$ mm. The
external validation shows that the proposed method is a high-robustness system.
According to the Pearson correlation coefficient, we have a strong correlation
between the board-certified intensivists and our result in terms of ETT-carina
distance.
- Abstract(参考訳): 胸部x線画像の画質は低コントラストと高ノイズのため本質的に低品質である。
気管内挿管検出は気管内管(ETT)先端とカリーナの位置を必要とする。
胸部X線撮影では,ETT先端とカリーナ間の距離を求めることが目的である。
そこで本稿では,Mask R-CNNを用いた特徴抽出手法を提案する。
Mask R-CNNは、画像中の管と気管分岐を予測する。
次に、特徴抽出法を用いて、ETT先端の特徴点とカリーナの特徴点を求める。
したがって、ETT-carina距離を得ることができる。
実験では, 再現率と精度で96 %を超える結果が得られた。
さらに、オブジェクトエラーは4.7751\pm 5.3420$ mm未満であり、ETT-carina距離エラーは5.5432\pm 6.3100$ mm未満である。
外部検証の結果,提案手法は高ロバスト性システムであることがわかった。
ピアソン相関係数(pearson correlation coefficient)により,ボード認定インテンシティストとett-carina距離の相関が強いことがわかった。
関連論文リスト
- MSDet: Receptive Field Enhanced Multiscale Detection for Tiny Pulmonary Nodule [17.838015589388014]
肺結節は肺癌の早期診断における重要な指標である。
従来のCT画像撮影法は、煩雑な処置、低検出率、ローカライゼーション精度の低下に悩まされていた。
肺小結節検出のためのマルチスケールアテンションおよび受容野ネットワークであるMSDetを提案する。
論文 参考訳(メタデータ) (2024-09-21T06:08:23Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Thoracic Cartilage Ultrasound-CT Registration using Dense Skeleton Graph [49.11220791279602]
一般的なアトラスから個々の患者への計画された経路を正確にマッピングすることは困難である。
アトラスから現在の設定へ計画されたパスを転送できるように、グラフベースの非厳密な登録を提案する。
論文 参考訳(メタデータ) (2023-07-07T18:57:21Z) - Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Automated Pulmonary Embolism Detection from CTPA Images Using an
End-to-End Convolutional Neural Network [31.58557856188164]
本研究では,肺塞栓症(PE)検出のための終末から終末までトレーニング可能な畳み込みニューラルネットワーク(CNN)を提案する。
本システムでは,0mm,2mm,5mmで1体積あたりの偽陽性が63.2%,78.9%,86.8%であった。
論文 参考訳(メタデータ) (2021-11-10T03:01:55Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z) - Saliency-Guided Deep Learning Network for Automatic Tumor Bed Volume
Delineation in Post-operative Breast Irradiation [0.0]
CT画像では,腫瘍床体積(TBV)と正常乳腺組織との対比が比較的低いため,術後乳房ターゲットの脱線は困難である。
術後乳房照射における正確なTBV分割のためのSDL(Saliency-based Deep Learning segmentation)アルゴリズムを開発した。
本モデルでは, DSC, HD95, ASD に対して 76.4 %, 6.76 mm, 1.9 mm の平均偏差 (標準偏差) を, 1 CT 体積あたり 11 秒以下で測定した。
論文 参考訳(メタデータ) (2021-05-06T15:57:23Z) - Heatmap-based 2D Landmark Detection with a Varying Number of Landmarks [1.1692203972491388]
本研究は,僧帽弁修復術の内視鏡像における縫合力を検出するニューラルネットワークアプローチを提案する。
提案されたヒートマップに基づくニューラルネットワークは平均正の予測値(PPV)を66.68$pm$4.67%達成する。
論文 参考訳(メタデータ) (2021-01-07T19:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。