論文の概要: Attenuation artifact detection and severity classification in intracoronary OCT using mixed image representations
- arxiv url: http://arxiv.org/abs/2503.05322v1
- Date: Fri, 07 Mar 2025 11:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:12.082117
- Title: Attenuation artifact detection and severity classification in intracoronary OCT using mixed image representations
- Title(参考訳): 混合画像表現を用いた冠動脈内OCTの減衰アーチファクト検出と重症度分類
- Authors: Pierandrea Cancian, Simone Saitta, Xiaojin Gu, Rudolf L. M. van Herten, Thijs J. Luttikholt, Jos Thannhauser, Rick H. J. A. Volleberg, Ruben G. A. van der Waerden, Joske L. van der Zande, Clarisa I. Sánchez, Bram van Ginneken, Niels van Royen, Ivana Išgum,
- Abstract要約: 本稿では, 減衰線(A線)を3つのクラスに分類する畳み込みニューラルネットワークを提案する。
本手法は, 軽度および重度の加工品に対して, OCTフレームのFスコア0.77, 0.94に達する減衰アーティファクトの存在を検知する。
- 参考スコア(独自算出の注目度): 2.334201943310467
- License:
- Abstract: In intracoronary optical coherence tomography (OCT), blood residues and gas bubbles cause attenuation artifacts that can obscure critical vessel structures. The presence and severity of these artifacts may warrant re-acquisition, prolonging procedure time and increasing use of contrast agent. Accurate detection of these artifacts can guide targeted re-acquisition, reducing the amount of repeated scans needed to achieve diagnostically viable images. However, the highly heterogeneous appearance of these artifacts poses a challenge for the automated detection of the affected image regions. To enable automatic detection of the attenuation artifacts caused by blood residues and gas bubbles based on their severity, we propose a convolutional neural network that performs classification of the attenuation lines (A-lines) into three classes: no artifact, mild artifact and severe artifact. Our model extracts and merges features from OCT images in both Cartesian and polar coordinates, where each column of the image represents an A-line. Our method detects the presence of attenuation artifacts in OCT frames reaching F-scores of 0.77 and 0.94 for mild and severe artifacts, respectively. The inference time over a full OCT scan is approximately 6 seconds. Our experiments show that analysis of images represented in both Cartesian and polar coordinate systems outperforms the analysis in polar coordinates only, suggesting that these representations contain complementary features. This work lays the foundation for automated artifact assessment and image acquisition guidance in intracoronary OCT imaging.
- Abstract(参考訳): 冠動脈内光コヒーレンス断層撮影(OCT)では、血液残基とガス気泡が減衰物を生じさせ、重要な血管構造を曖昧にする。
これらのアーティファクトの存在と重症度は、再取得、手続き時間延長、コントラスト剤の使用の増加を保証できる。
これらのアーティファクトの正確な検出は、目標とする再取得を導くことができ、診断可能な画像を達成するのに必要な繰り返しスキャンの量を削減できる。
しかし、これらのアーティファクトの非常に異質な外観は、影響を受ける画像領域の自動検出に困難をもたらす。
血液残基やガス気泡による減衰物を自動的に検出するために, 減衰線(A線)を3つのクラスに分類する畳み込みニューラルネットワークを提案する。
モデルでは,画像の各列がA線を表すカルト座標と極座標のOCT像から特徴を抽出し,マージする。
本手法は, 軽度および重度の加工品に対して, OCTフレームのFスコア0.77, 0.94に達する減衰アーティファクトの存在を検知する。
全OCTスキャンでの推測時間はおよそ6秒である。
カルト座標系と極座標系の両方で表現される画像の解析は極座標のみの解析より優れており、これらの表現は相補的特徴を含むことを示唆している。
本研究は,冠動脈内CT画像診断における自動アーティファクト評価と画像取得指導の基礎となるものである。
関連論文リスト
- DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
そして、学習したアーティファクト検出器を第2段階に巻き込み、各画像に画素ごとの信頼マップを割り当てて拡散モデルをチューニングする。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - O2CTA: Introducing Annotations from OCT to CCTA in Coronary Plaque
Analysis [19.099761377777412]
冠動脈造影(CCTA)は動脈造影や狭窄度判定に広く用いられている。
侵襲的光コヒーレンス断層撮影(OCT)により、医師のトラブルを伴わずに解決することができるが、高いコストと潜在的なリスクを患者にもたらすことができる。
我々は,O2CTA問題に対処する手法を提案する。CCTAスキャンはまず,意味内容の観点からOCT画像と一致するマルチ平面再構成(MPR)画像に再構成される。
OCTの動脈セグメントは手動でラベル付けされ、提案したアライメント戦略を介してMPR画像の動脈全体と空間的に整列する。
論文 参考訳(メタデータ) (2023-03-11T09:40:05Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Anatomically constrained CT image translation for heterogeneous blood
vessel segmentation [3.88838725116957]
造影CT(ceCT)画像の解剖学的構造は, 造影剤拡散の変動により, 分画が困難になる可能性がある。
放射線線量を制限するために、生成モデルは1つのモダリティを合成するために用いられる。
CycleGANは、ペアデータの必要性を軽減するため、特に注目を集めている。
本稿では,高忠実度画像を生成するためのCycleGANの拡張について述べる。
論文 参考訳(メタデータ) (2022-10-04T16:14:49Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Weakly- and Semi-Supervised Probabilistic Segmentation and
Quantification of Ultrasound Needle-Reverberation Artifacts to Allow Better
AI Understanding of Tissue Beneath Needles [0.0]
人工物から所望の組織ベースのピクセル値を分離する確率論的ニードル・アンド・レバーベーション・アーティファクトセグメンテーション法を提案する。
提案手法は,最先端のアーティファクトセグメンテーション性能と一致し,アーティファクトの画素ごとのコントリビューションを,基礎となる解剖学に対して推定する新しい標準を設定する。
論文 参考訳(メタデータ) (2020-11-24T08:34:38Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Deep OCT Angiography Image Generation for Motion Artifact Suppression [8.442020709975015]
感染したスキャンは、強い(白)領域や欠落した(黒)領域として現れ、情報が失われる。
OCTからOCTAへの画像変換の深部生成モデルは、単一の無傷OCTスキャンに依存している。
U-Netは、OCTパッチから血管造影情報を抽出するように訓練される。
推定時に、検出アルゴリズムは、その環境に基づいて外部のOCTAスキャンを見つけ、それをトレーニングされたネットワークに置き換える。
論文 参考訳(メタデータ) (2020-01-08T13:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。