論文の概要: Rapid Extraction of Respiratory Waveforms from Photoplethysmography: A
Deep Encoder Approach
- arxiv url: http://arxiv.org/abs/2212.12578v1
- Date: Thu, 22 Dec 2022 13:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:27:24.719326
- Title: Rapid Extraction of Respiratory Waveforms from Photoplethysmography: A
Deep Encoder Approach
- Title(参考訳): 光胸腺造影法による呼吸波形の迅速抽出:ディープエンコーダアプローチ
- Authors: Harry J. Davies and Danilo P. Mandic
- Abstract要約: 呼吸情報の多くは、血流、心拍数、脳卒中量の変化を通じて、光胸腺造影信号に含まれる。
我々は、この事実を、再利用可能な畳み込みオートエンコーダに基づく新しいディープラーニングフレームワークを用いて活用することを目指している。
本モデルでは, 金標準に接近する呼吸波形を生成でき, 同時に, 術中呼吸速度の推定値を生成できることが示されている。
- 参考スコア(独自算出の注目度): 24.594587557319837
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Much of the information of breathing is contained within the
photoplethysmography (PPG) signal, through changes in venous blood flow, heart
rate and stroke volume. We aim to leverage this fact, by employing a novel deep
learning framework which is a based on a repurposed convolutional autoencoder.
Our model aims to encode all of the relevant respiratory information contained
within photoplethysmography waveform, and decode it into a waveform that is
similar to a gold standard respiratory reference. The model is employed on two
photoplethysmography data sets, namely Capnobase and BIDMC. We show that the
model is capable of producing respiratory waveforms that approach the gold
standard, while in turn producing state of the art respiratory rate estimates.
We also show that when it comes to capturing more advanced respiratory waveform
characteristics such as duty cycle, our model is for the most part
unsuccessful. A suggested reason for this, in light of a previous study on
in-ear PPG, is that the respiratory variations in finger-PPG are far weaker
compared with other recording locations. Importantly, our model can perform
these waveform estimates in a fraction of a millisecond, giving it the capacity
to produce over 6 hours of respiratory waveforms in a single second. Moreover,
we attempt to interpret the behaviour of the kernel weights within the model,
showing that in part our model intuitively selects different breathing
frequencies. The model proposed in this work could help to improve the
usefulness of consumer PPG-based wearables for medical applications, where
detailed respiratory information is required.
- Abstract(参考訳): 呼吸に関する情報の多くは、静脈血流量、心拍数、脳卒中量の変化を通じて、ppg(photoplethysmography)信号に含まれる。
我々は,再利用可能な畳み込みオートエンコーダに基づく新しいディープラーニングフレームワークを用いて,この事実を活用することを目指している。
本モデルは,photoplethysmography波形に含まれる呼吸情報を全てエンコードし,ゴールド標準呼吸基準と類似した波形に復号することを目的としている。
このモデルは、capnobaseとbidmcという2つのフォトプレチモグラフィデータセットで使用される。
本モデルでは,金標準に接近する呼吸波形を生成できると同時に,術中呼吸速度の推定値を生成することができることを示す。
また、デューティサイクルのようなより高度な呼吸波形特性を捉えることに関しても、我々のモデルは殆ど失敗していることを示す。
このことが示唆される理由は、前回の研究から、指-PPGの呼吸の変動は他の記録場所に比べてはるかに弱いためである。
重要なことに、我々のモデルは1ミリ秒でこれらの波形を推定することができ、単一の秒で6時間以上の呼吸波形を生成することができる。
さらに、モデル内のカーネル重みの挙動を解釈しようと試み、その一部は直感的に異なる呼吸周波数を選択することを示す。
この研究で提案されるモデルは、詳細な呼吸情報を必要とする医療応用のための一般のPSGベースのウェアラブルの有用性を向上させるのに役立つ。
関連論文リスト
- Frequency-Guided Masking for Enhanced Vision Self-Supervised Learning [49.275450836604726]
本稿では、事前学習の有効性を大幅に向上させる、新しい周波数ベースの自己監視学習(SSL)手法を提案する。
我々は、知識蒸留によって強化された2ブランチのフレームワークを使用し、モデルがフィルタされた画像と原画像の両方を入力として取り込むことを可能にする。
論文 参考訳(メタデータ) (2024-09-16T15:10:07Z) - RepAugment: Input-Agnostic Representation-Level Augmentation for Respiratory Sound Classification [2.812716452984433]
本稿では,プレトレーニング音声モデルの呼吸音分類への応用について検討する。
音声と肺の音響サンプルの間には特徴的ギャップがあり,このギャップを埋めるためには,データ拡張が不可欠である。
入力に依存しない表現レベルの拡張手法であるRepAugmentを提案する。
論文 参考訳(メタデータ) (2024-05-05T16:45:46Z) - Validated respiratory drug deposition predictions from 2D and 3D medical
images with statistical shape models and convolutional neural networks [47.187609203210705]
患者固有の沈着モデリングのための自動計算フレームワークを開発し,検証することを目的としている。
2次元胸部X線と3次元CT画像から3次元患者の呼吸動態を生成できる画像処理手法が提案されている。
論文 参考訳(メタデータ) (2023-03-02T07:47:07Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - What Makes for Automatic Reconstruction of Pulmonary Segments [50.216231776343115]
肺の3次元再構成は肺癌の外科的治療計画において重要な役割を担っている。
しかし, 深層学習の時代には, 肺部分の自動再建は行われていない。
肺セグメント再建のための深部暗黙表面モデルImPulSeを提案する。
論文 参考訳(メタデータ) (2022-07-07T04:24:17Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Sleep Apnea and Respiratory Anomaly Detection from a Wearable Band and
Oxygen Saturation [1.2291501047353484]
シンプルで使いやすいデバイスから睡眠時無呼吸を自動的に検出するより便利な方法のための一般的な医学とクリティカルケアの必要性があります。
本研究の目的は, 呼吸異常を自動検出し, Apnea-Hypopnea-Index (AHI) をウェアラブル呼吸装置で推定することである。
4つのモデルが訓練された:1つは呼吸機能のみを使用し、1つはSpO2(%)信号のみから、もう1つは呼吸機能とSpO2(%)機能を使用する2つの追加モデルである。
論文 参考訳(メタデータ) (2021-02-24T02:04:57Z) - 2-D Respiration Navigation Framework for 3-D Continuous Cardiac Magnetic
Resonance Imaging [61.701281723900216]
連続スキャン中に2次元呼吸情報を得るためのサンプリング適応を提案する。
我々は、取得した信号から異なる呼吸状態を抽出し、ある呼吸相からデータを再構成するパイプラインを開発した。
論文 参考訳(メタデータ) (2020-12-26T08:29:57Z) - CNN-MoE based framework for classification of respiratory anomalies and
lung disease detection [33.45087488971683]
本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。
呼吸周期の異常を分類し、呼吸音の記録から病気を検出することを目的としている。
論文 参考訳(メタデータ) (2020-04-04T21:45:06Z) - Abnormal respiratory patterns classifier may contribute to large-scale
screening of people infected with COVID-19 in an accurate and unobtrusive
manner [38.59200764343499]
感染予防, 予防管理期間中は, HIV感染者の予後, 診断, スクリーニングに有用である。
我々の研究は様々な呼吸パターンを識別するために利用することができ、装置を予備的に実用化することができる。
論文 参考訳(メタデータ) (2020-02-12T09:42:57Z) - Robust Deep Learning Framework For Predicting Respiratory Anomalies and
Diseases [26.786743524562322]
本稿では,呼吸音の記録から呼吸器疾患を検出するための,堅牢な深層学習フレームワークを提案する。
バックエンドのディープラーニングモデルは、特徴を呼吸器疾患または異常のクラスに分類する。
ICBHIベンチマークを用いて実験を行い, 音の分類能力を評価する。
論文 参考訳(メタデータ) (2020-01-21T15:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。