論文の概要: Model Explainability in Physiological and Healthcare-based Neural
Networks
- arxiv url: http://arxiv.org/abs/2304.14495v1
- Date: Mon, 3 Apr 2023 20:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 16:21:59.745175
- Title: Model Explainability in Physiological and Healthcare-based Neural
Networks
- Title(参考訳): 生理・医療系ニューラルネットワークにおけるモデル説明可能性
- Authors: Rohit Sharma, Abhinav Gupta, Arnav Gupta, Bo Li
- Abstract要約: 新型コロナウイルスのパンデミックは、SpO2の早期発見の重要性を強調している。
従来のSpO2測定方法は、コンタクトベースのセンシングに依存している。
パルスオキシメータは 地域社会や未開発国では使えません
提案手法は,コンシューマグレードのスマートフォンから撮影したビデオを用いて,より効率的かつ正確なSpO2監視方法を提供する。
- 参考スコア(独自算出の注目度): 26.241527103973887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation and monitoring of SpO2 are crucial for assessing lung function
and treating chronic pulmonary diseases. The COVID-19 pandemic has highlighted
the importance of early detection of changes in SpO2, particularly in
asymptomatic patients with clinical deterioration. However, conventional SpO2
measurement methods rely on contact-based sensing, presenting the risk of
cross-contamination and complications in patients with impaired limb perfusion.
Additionally, pulse oximeters may not be available in marginalized communities
and undeveloped countries. To address these limitations and provide a more
comfortable and unobtrusive way to monitor SpO2, recent studies have
investigated SpO2 measurement using videos. However, measuring SpO2 using
cameras in a contactless way, particularly from smartphones, is challenging due
to weaker physiological signals and lower optical selectivity of smartphone
camera sensors. The system includes three main steps: 1) extraction of the
region of interest (ROI), which includes the palm and back of the hand, from
the smartphone-captured videos; 2) spatial averaging of the ROI to produce R,
G, and B time series; and 3) feeding the time series into an
optophysiology-inspired CNN for SpO2 estimation. Our proposed method can
provide a more efficient and accurate way to monitor SpO2 using videos captured
from consumer-grade smartphones, which can be especially useful in telehealth
and health screening settings.
- Abstract(参考訳): spo2の推定とモニタリングは肺機能の評価と慢性肺疾患の治療に不可欠である。
新型コロナウイルス(covid-19)のパンデミックは、spo2の変化を早期に発見することの重要性を強調した。
しかし,従来のSpO2測定法は接触式センシングに頼っており,手足灌流障害患者のクロス汚染や合併症のリスクが指摘されている。
加えて、パルスオキシメータは、地域社会や未開発国では利用できない。
これらの制限に対処し、より快適で控えめなSpO2モニタリング方法を提供するため、最近の研究では、ビデオを用いたSpO2測定について研究されている。
しかし,特にスマートフォンのカメラを用いたSpO2測定は,生理学的信号の弱さと,スマートフォンカメラセンサの光学選択性低下により困難である。
システムには3つの主要なステップがある。
1) スマートフォンで撮影したビデオから手のひらと背中を含む関心領域(ROI)を抽出すること。
2)R,G,B時系列を生成するためのROIの空間平均化
3) 時系列を光生理学的に誘発されたCNNに入力し, SpO2推定を行った。
提案手法は,消費者のスマートフォンから撮影したビデオを用いて,より効率的かつ正確なSpO2モニタリングを行う方法であり,遠隔医療や健康診断に特に有用である。
関連論文リスト
- Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features [50.82725748981231]
エンゲージメント測定は、医療、教育、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の非現実性は接触センサーの必要性により生じる。
コンタクトセンサの代替として, 教師なし光胸腺造影(胸腔鏡)の有用性を実証する。
論文 参考訳(メタデータ) (2024-04-05T20:39:16Z) - Channel Attention Separable Convolution Network for Skin Lesion
Segmentation [2.8636163472272576]
皮膚病変分割のための新しいネットワークであるChannel Attention Separable Convolution Network (CASCN)を提案する。
CASCNは、Dice係数が0.9461で精度が0.9645であるPH2データセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2023-09-03T04:20:28Z) - Evaluation of the potential of Near Infrared Hyperspectral Imaging for
monitoring the invasive brown marmorated stink bug [53.682955739083056]
BMSB(Halyomorpha halys)は、数種の作物を害する世界的重要性の害虫である。
本研究は、BMSB検体を検出する技術として、NIR-HSI(Near Infrared Hyperspectral Imaging)を実験室レベルで予備評価する。
論文 参考訳(メタデータ) (2023-01-19T11:37:20Z) - Reducing a complex two-sided smartwatch examination for Parkinson's
Disease to an efficient one-sided examination preserving machine learning
accuracy [63.20765930558542]
パーキンソン病(PD)研究における技術ベースアセスメントの実施状況について報告した。
本研究は、両手同期スマートウォッチ測定におけるPDサンプルサイズとして最大である。
論文 参考訳(メタデータ) (2022-05-11T09:12:59Z) - Dual Attention Network for Heart Rate and Respiratory Rate Estimation [1.5469452301122175]
現在テレヒールスでは、非接触カメラによる生理的測定がよりアクセスしやすく便利である。
また、システムの複雑さとレイテンシを低減するために、心拍数と呼吸速度の両方を推定できる統合ネットワークを持つことも望ましいです。
本稿では、空間的注意とチャネル的注意を生かした畳み込みニューラルネットワークを提案し、これを二重注意ネットワーク(DAN)と呼び、カメラビデオと共同で心拍数と呼吸率を入力として推定する。
論文 参考訳(メタデータ) (2021-10-31T03:00:28Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Remote Blood Oxygen Estimation From Videos Using Neural Networks [14.89693668182024]
血液酸素飽和度(SpO$$)は呼吸機能の不可欠な指標であり、新型コロナウイルスのパンデミックで注目されている。
スマートフォンカメラを用いた最初の畳み込みニューラルネットワークに基づく非接触SpO$推定方式を提案する。
論文 参考訳(メタデータ) (2021-07-11T16:59:49Z) - A Novel Non-Invasive Estimation of Respiration Rate from
Photoplethysmograph Signal Using Machine Learning Model [0.0]
呼吸速度 (RR) は患者の健康を示す重要な指標である。
リアルタイムの連続RRモニタリング施設は集中ケアユニット(ICU)でのみ利用可能です。
最近の研究では、RR推定のためのPhotoplethysmogram(ECG)および/心電図(ECG)信号が提案されている。
本稿では,PPG信号特性を有する機械学習(ML)モデルを用いたRR推定手法について述べる。
論文 参考訳(メタデータ) (2021-02-18T17:08:50Z) - Video-based Remote Physiological Measurement via Cross-verified Feature
Disentangling [121.50704279659253]
非生理的表現と生理的特徴を混同するための横断的特徴分離戦略を提案する。
次に, 蒸留された生理特性を用いて, 頑健なマルチタスク生理測定を行った。
歪んだ特徴は、最終的に平均HR値やr信号のような複数の生理的信号の合同予測に使用される。
論文 参考訳(メタデータ) (2020-07-16T09:39:17Z) - Multi-Task Temporal Shift Attention Networks for On-Device Contactless
Vitals Measurement [9.825675909430611]
ビデオベースおよびオンデバイス型光学式心肺蘇生標識計測手法を提案する。
移動プラットフォーム上でのリアルタイム心血管および呼吸の測定を可能にする。
我々は,高度なRISCマシン(ARM)CPU上でのシステム評価を行い,150フレーム/秒以上動作しながら最先端の精度を実現した。
論文 参考訳(メタデータ) (2020-06-06T06:31:24Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。