論文の概要: Radiomics-Informed Deep Learning for Classification of Atrial
Fibrillation Sub-Types from Left-Atrium CT Volumes
- arxiv url: http://arxiv.org/abs/2308.06933v1
- Date: Mon, 14 Aug 2023 04:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 14:25:05.232164
- Title: Radiomics-Informed Deep Learning for Classification of Atrial
Fibrillation Sub-Types from Left-Atrium CT Volumes
- Title(参考訳): 左房CTボリュームからの心房細動サブタイプ分類のための放射線インフォームドディープラーニング
- Authors: Weihang Dai, Xiaomeng Li, Taihui Yu, Di Zhao, Jun Shen, Kwang-Ting
Cheng
- Abstract要約: 心房細動(AF)は急速で不整脈を特徴とし、心不全などの致命的な合併症を引き起こす。
既存の分類手法は、タスクに最適でない可能性のある一般的な放射能的特徴に依存している。
深層学習と放射能アプローチの利点を組み合わせた,放射能インフォームド深層学習法(RIDL)を提案する。
- 参考スコア(独自算出の注目度): 32.27899227937808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Atrial Fibrillation (AF) is characterized by rapid, irregular heartbeats, and
can lead to fatal complications such as heart failure. The disease is divided
into two sub-types based on severity, which can be automatically classified
through CT volumes for disease screening of severe cases. However, existing
classification approaches rely on generic radiomic features that may not be
optimal for the task, whilst deep learning methods tend to over-fit to the
high-dimensional volume inputs. In this work, we propose a novel
radiomics-informed deep-learning method, RIDL, that combines the advantages of
deep learning and radiomic approaches to improve AF sub-type classification.
Unlike existing hybrid techniques that mostly rely on na\"ive feature
concatenation, we observe that radiomic feature selection methods can serve as
an information prior, and propose supplementing low-level deep neural network
(DNN) features with locally computed radiomic features. This reduces DNN
over-fitting and allows local variations between radiomic features to be better
captured. Furthermore, we ensure complementary information is learned by deep
and radiomic features by designing a novel feature de-correlation loss.
Combined, our method addresses the limitations of deep learning and radiomic
approaches and outperforms state-of-the-art radiomic, deep learning, and hybrid
approaches, achieving 86.9% AUC for the AF sub-type classification task. Code
is available at https://github.com/xmed-lab/RIDL.
- Abstract(参考訳): 心房細動(AF)は急速で不整脈を特徴とし、心不全などの致命的な合併症を引き起こす。
本疾患は重症度に基づいて2つのサブタイプに分類され,病状スクリーニングのためにCTボリュームで自動的に分類できる。
しかし、既存の分類手法は、タスクに最適でないような一般的な放射能特性に依存しているが、ディープラーニング手法は高次元のボリューム入力に過度に適合する傾向がある。
本研究では,AFサブタイプ分類を改善するために,深層学習と放射能アプローチの利点を組み合わせた新しい放射線インフォームド深層学習手法RIDLを提案する。
na\" 特徴結合に大きく依存する既存のハイブリッド技術とは異なり、放射能特徴選択法は事前に情報として機能し、局所的に計算された放射能特徴を持つ低レベルディープニューラルネットワーク(DNN)特徴を補うことを提案する。
これにより、DNNの過度な適合を低減し、無線機能間の局所的なバリエーションをよりよくキャプチャできる。
さらに,新しい特徴デコリレーション損失を設計することにより,深部・放射能特性から補完情報を確実に学習する。
本手法は,AFサブタイプの分類タスクに対して86.9%のAUCを達成し,深層学習と放射能アプローチの限界に対処し,最先端の放射線学,深層学習,ハイブリッドアプローチを上回る性能を発揮する。
コードはhttps://github.com/xmed-lab/RIDLで入手できる。
関連論文リスト
- Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN [2.7699831151653305]
本稿では,診療所における低コストシステムを用いた心疾患の迅速かつ効率的な診断方法を提案する。
LSCNネットワークによる心臓音の総合的分類精度は96%以上である。
論文 参考訳(メタデータ) (2024-07-15T13:02:54Z) - Learning Low-Rank Feature for Thorax Disease Classification [7.447448767095787]
本稿では胸部疾患分類について検討する。
疾患領域の特徴の効果的な抽出は, 放射線画像上の疾患分類に不可欠である。
本稿では,Low-Rank Feature Learning (LRFL)法を提案する。
論文 参考訳(メタデータ) (2024-02-14T15:35:56Z) - Multi-stages attention Breast cancer classification based on nonlinear
spiking neural P neurons with autapses [10.16176106140093]
ディープネットワークにおけるダウンサンプリングは、情報の損失につながる可能性がある。
本稿では,アプタプを用いたNSNPニューロンに基づく多段階アテンションアーキテクチャを提案する。
全ての倍率ケースにおいて96.32%の分類精度を達成し、最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-12-20T06:52:38Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Deep AUC Maximization for Medical Image Classification: Challenges and
Opportunities [60.079782224958414]
我々は、AUCによる新たな深層学習手法による機会と課題を提示し、議論する(別名、アンダーラインbfディープアンダーラインbfAUC分類)。
論文 参考訳(メタデータ) (2021-11-01T15:31:32Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Brain Tumor Detection and Classification based on Hybrid Ensemble
Classifier [0.6091702876917281]
本稿では,ランダムフォレスト(RF)とK-ニアレストネイバー(K-Nearest Neighbour)と決定木(DT)を用いたハイブリッドアンサンブル法を提案する。
腫瘍領域の面積を計算し、脳腫瘍を良性および悪性に分類することを目的としている。
提案手法は,トレーニングとテストにそれぞれ85:15で使用される2556画像のデータセット上でテストを行い,97.305%の精度を示す。
論文 参考訳(メタデータ) (2021-01-01T11:52:29Z) - Multi-Modality Information Fusion for Radiomics-based Neural
Architecture Search [10.994223928445589]
既存の放射能法では、手作りの放射能の特徴とその抽出と選択が必要である。
畳み込みニューラルネットワーク(CNN)に基づく最近の放射線学手法も、ネットワークアーキテクチャ設計において手動入力を必要とする。
放射能に最適なマルチモーダル画像特徴を自動的に導出するマルチモーダルニューラルネットワーク探索法(MM-NAS)を提案する。
論文 参考訳(メタデータ) (2020-07-12T14:35:13Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。