論文の概要: JointViT: Modeling Oxygen Saturation Levels with Joint Supervision on Long-Tailed OCTA
- arxiv url: http://arxiv.org/abs/2404.11525v3
- Date: Sun, 28 Jul 2024 18:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 23:27:56.037408
- Title: JointViT: Modeling Oxygen Saturation Levels with Joint Supervision on Long-Tailed OCTA
- Title(参考訳): JointViT:長尺OCTAにおける酸素飽和レベルのモデリング
- Authors: Zeyu Zhang, Xuyin Qi, Mingxi Chen, Guangxi Li, Ryan Pham, Ayub Qassim, Ella Berry, Zhibin Liao, Owen Siggs, Robert Mclaughlin, Jamie Craig, Minh-Son To,
- Abstract要約: 本稿では,ビジョントランスフォーマーアーキテクチャに基づく新しいモデルであるJointViTを提案する。
本稿では,データ前処理時のバランシング向上手法を導入し,モデルの性能向上を図る。
提案手法は他の最先端手法よりも優れ、全体的な精度は最大12.28%向上した。
- 参考スコア(独自算出の注目度): 5.935281996910959
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The oxygen saturation level in the blood (SaO2) is crucial for health, particularly in relation to sleep-related breathing disorders. However, continuous monitoring of SaO2 is time-consuming and highly variable depending on patients' conditions. Recently, optical coherence tomography angiography (OCTA) has shown promising development in rapidly and effectively screening eye-related lesions, offering the potential for diagnosing sleep-related disorders. To bridge this gap, our paper presents three key contributions. Firstly, we propose JointViT, a novel model based on the Vision Transformer architecture, incorporating a joint loss function for supervision. Secondly, we introduce a balancing augmentation technique during data preprocessing to improve the model's performance, particularly on the long-tail distribution within the OCTA dataset. Lastly, through comprehensive experiments on the OCTA dataset, our proposed method significantly outperforms other state-of-the-art methods, achieving improvements of up to 12.28% in overall accuracy. This advancement lays the groundwork for the future utilization of OCTA in diagnosing sleep-related disorders. See project website https://steve-zeyu-zhang.github.io/JointViT
- Abstract(参考訳): 血液中の酸素飽和度(SaO2)は健康、特に睡眠関連呼吸障害において重要である。
しかし、SaO2の連続モニタリングは、患者の状況に応じて、時間的および高度に変動する。
近年,光コヒーレンストモグラフィー(OCTA)は目関連病変を迅速かつ効果的にスクリーニングし,睡眠関連疾患の診断の可能性を示している。
このギャップを埋めるために、本稿では3つの重要な貢献について述べる。
まず,視覚変換器アーキテクチャに基づく新しいモデルであるJointViTを提案する。
第2に,データ前処理中のバランス向上手法を導入し,特にOCTAデータセット内の長期分布において,モデルの性能向上を図る。
最後に、OCTAデータセットに関する包括的な実験により、提案手法は他の最先端手法よりも大幅に優れ、全体的な精度は最大12.28%向上した。
この進歩は、将来の睡眠関連疾患の診断におけるOCTAの利用の基礎となる。
プロジェクトWebサイト https://steve-zeyu-zhang.github.io/JointViT
関連論文リスト
- EFCM: Efficient Fine-tuning on Compressed Models for deployment of large models in medical image analysis [17.876140405367764]
本研究では,非監督的特徴蒸留と微調整の2段階からなる圧縮モデル(EFCM)フレームワークの効率的な微調整について述べる。
実験は、網膜用RETFound、胸部X線用MRM、病理組織学用BROWの3つの大きな医療モデルに関連する11の下流データセットで実施された。
論文 参考訳(メタデータ) (2024-09-18T09:08:16Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - Harnessing the power of longitudinal medical imaging for eye disease prognosis using Transformer-based sequence modeling [49.52787013516891]
今回提案した Longitudinal Transformer for Survival Analysis (LTSA, Longitudinal Transformer for Survival Analysis, LTSA) は, 縦断的医用画像から動的疾患の予後を予測できる。
時間的注意分析により、最新の画像は典型的には最も影響力のあるものであるが、以前の画像は追加の予後に価値があることが示唆された。
論文 参考訳(メタデータ) (2024-05-14T17:15:28Z) - 3DTINC: Time-Equivariant Non-Contrastive Learning for Predicting Disease Progression from Longitudinal OCTs [8.502838668378432]
本研究では,非コントラスト学習に基づく縦型自己教師型学習手法である3DTINCを提案する。
3次元光コヒーレンストモグラフィ(OCT)ボリュームの摂動不変特性をOCT用に特別に設計した拡張を用いて学習するように設計されている。
加齢黄斑変性(AMD)などの網膜疾患の進行を予測するためには,この時間的情報が不可欠であることを示す実験を行った。
論文 参考訳(メタデータ) (2023-12-28T11:47:12Z) - Synthesizing Bidirectional Temporal States of Knee Osteoarthritis
Radiographs with Cycle-Consistent Generative Adversarial Neural Networks [0.11249583407496219]
変形性膝関節症(KOA)の過去と将来の経過をX線写真で解析するために,CycleGANモデルを訓練した。
このモデルは, 将来の疾患状態において特に有効であり, 後期X線像を早期に遡及的に移行する異常な能力を示した。
論文 参考訳(メタデータ) (2023-11-10T00:15:00Z) - Improving Diffusion Models for ECG Imputation with an Augmented Template
Prior [43.6099225257178]
ノイズと品質の悪い録音は、モバイルヘルスシステムを使って収集された信号にとって大きな問題である。
近年の研究では、確率的時系列モデルによるECGの欠落値の計算が検討されている。
本稿では,様々な健康状態の事前情報として,テンプレート誘導型拡散確率モデル(DDPM)PulseDiffを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:34:15Z) - AIOSA: An approach to the automatic identification of obstructive sleep
apnea events based on deep learning [1.5381930379183162]
OSASは、死亡率の上昇、神経障害の悪化、リハビリテーション後の機能低下、高血圧の発症率の上昇と関連している。
OSAS診断のための金標準検査はPSG (Polysomnography) である。
生波形データの時間分解能を低減できる畳み込み型ディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-10T11:21:47Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - Boundary Guided Semantic Learning for Real-time COVID-19 Lung Infection
Segmentation System [69.40329819373954]
新型コロナウイルス(COVID-19)は、世界中の医療システムに悪影響を及ぼし続けている。
現段階では、新型コロナウイルスの診断と治療には、CT画像から肺感染症領域を自動的に分離することが不可欠である。
本稿では,境界案内型セマンティックラーニングネットワーク(BSNet)を提案する。
論文 参考訳(メタデータ) (2022-09-07T05:01:38Z) - Learning-Based Keypoint Registration for Fetoscopic Mosaicking [65.02392513942533]
ツイン・トゥ・ツイン輸血症候群(TTTS)では、単子葉胎盤の血管系異常な血管性無痛が両胎児の間に不均一な血流を生じさせる。
本研究では,フィールド・オブ・ビュー展開のためのフェトスコープフレーム登録のための学習ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T21:21:12Z) - FetReg: Placental Vessel Segmentation and Registration in Fetoscopy
Challenge Dataset [57.30136148318641]
Fetoscopy Laser Photocoagulation はツイン・ツー・ツイン・トランスフュージョン症候群(TTTS)の治療に広く用いられている治療法である
これにより、プロシージャ時間と不完全アブレーションが増加し、持続的なTTTSが生じる可能性がある。
コンピュータ支援による介入は、ビデオモザイクによって胎児の視野を広げ、船体ネットワークのより良い視覚化を提供することによって、これらの課題を克服するのに役立つかもしれない。
本稿では,長期フェトスコープビデオからドリフトフリーモザイクを作成することを目的とした,胎児環境のための汎用的でロバストなセマンティックセマンティックセグメンテーションとビデオモザイクアルゴリズムを開発するための大規模マルチセントデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。