論文の概要: MTS-LOF: Medical Time-Series Representation Learning via
Occlusion-Invariant Features
- arxiv url: http://arxiv.org/abs/2310.12451v1
- Date: Thu, 19 Oct 2023 04:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 17:08:55.060420
- Title: MTS-LOF: Medical Time-Series Representation Learning via
Occlusion-Invariant Features
- Title(参考訳): MTS-LOF: Occlusion-invariant Featuresによる医用時系列表現学習
- Authors: Huayu Li, Ana S. Carreon-Rascon, Xiwen Chen, Geng Yuan, and Ao Li
- Abstract要約: 医療時系列データは医療において不可欠であり、疾患の診断、治療計画、患者の管理に重要な洞察を提供する。
高度なセンサー技術によって駆動されるデータ複雑性の指数関数的増加は、データラベリングに関する課題を提示している。
MTS-LOFとして知られる医療時系列表現学習のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.02339970109459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical time series data are indispensable in healthcare, providing critical
insights for disease diagnosis, treatment planning, and patient management. The
exponential growth in data complexity, driven by advanced sensor technologies,
has presented challenges related to data labeling. Self-supervised learning
(SSL) has emerged as a transformative approach to address these challenges,
eliminating the need for extensive human annotation. In this study, we
introduce a novel framework for Medical Time Series Representation Learning,
known as MTS-LOF. MTS-LOF leverages the strengths of contrastive learning and
Masked Autoencoder (MAE) methods, offering a unique approach to representation
learning for medical time series data. By combining these techniques, MTS-LOF
enhances the potential of healthcare applications by providing more
sophisticated, context-rich representations. Additionally, MTS-LOF employs a
multi-masking strategy to facilitate occlusion-invariant feature learning. This
approach allows the model to create multiple views of the data by masking
portions of it. By minimizing the discrepancy between the representations of
these masked patches and the fully visible patches, MTS-LOF learns to capture
rich contextual information within medical time series datasets. The results of
experiments conducted on diverse medical time series datasets demonstrate the
superiority of MTS-LOF over other methods. These findings hold promise for
significantly enhancing healthcare applications by improving representation
learning. Furthermore, our work delves into the integration of joint-embedding
SSL and MAE techniques, shedding light on the intricate interplay between
temporal and structural dependencies in healthcare data. This understanding is
crucial, as it allows us to grasp the complexities of healthcare data analysis.
- Abstract(参考訳): 医療時系列データは医療において不可欠であり、疾患診断、治療計画、患者の管理に重要な洞察を提供する。
高度なセンサー技術によって駆動されるデータ複雑性の指数的な増加は、データラベリングに関する課題を提示している。
自己教師付き学習(SSL)は、これらの課題に対処するための変革的なアプローチとして現れ、広範な人間のアノテーションの必要性を排除している。
本研究では,MTS-LOFとして知られる医療時系列表現学習のための新しいフレームワークを提案する。
MTS-LOFは、対照的な学習の強みとMasked Autoencoder(MAE)手法を活用し、医療時系列データの表現学習にユニークなアプローチを提供する。
これらの技術を組み合わせることで、MTS-LOFはより洗練されたコンテキストリッチな表現を提供することで、医療応用の可能性を高める。
さらに、MTS-LOFはオクルージョン不変の特徴学習を容易にするためにマルチマスキング戦略を採用している。
このアプローチでは、モデルがデータの一部をマスクすることで、データの複数のビューを作成できる。
これらのマスクされたパッチと完全に見えるパッチとの差を最小限にすることで、MTS-LOFは医療時系列データセット内のリッチなコンテキスト情報をキャプチャすることを学ぶ。
各種医療時系列データセットを用いた実験の結果,他の手法よりもmts-lofが優れていることが示された。
これらの知見は、表現学習の改善による医療応用の大幅な向上を約束する。
さらに,我々の研究は,ssl と mae 技術を統合して,医療データにおける時間依存と構造依存の複雑な相互作用を浮き彫りにした。
この理解は、医療データ分析の複雑さを把握できるため、非常に重要です。
関連論文リスト
- Machine Learning Techniques for MRI Data Processing at Expanding Scale [0.5221459608786241]
世界中のイメージングサイトは、より多用途で手頃な価格のテクノロジーで、より多くの医療スキャンデータを生成する。
これらの大規模なデータセットは人間の健康に関する情報をエンコードし、機械学習のトレーニングと分析にかなりの可能性を秘めている。
本章は、現在進行中の大規模研究と、それら間の分散シフトの課題について考察する。
論文 参考訳(メタデータ) (2024-04-22T16:38:41Z) - OPTiML: Dense Semantic Invariance Using Optimal Transport for Self-Supervised Medical Image Representation [6.4136876268620115]
自己教師付き学習(SSL)は、アノテーションなしで学習できることから、医用画像解析の有望な技術として登場した。
本稿では, 最適トランスポート(OT)を用いたSSLフレームワークOPTiMLを導入し, 密接なセマンティック不変性と細粒度の詳細を捉える。
実験の結果,OPTiMLはすべての評価課題において最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-18T02:59:48Z) - MedFLIP: Medical Vision-and-Language Self-supervised Fast Pre-Training
with Masked Autoencoder [28.17601348122799]
本稿では,医療分析のための高速言語画像事前学習手法であるMedFLIPを紹介する。
交差ドメインを用いたゼロショット学習のためのMAEを探索し、限られたデータから学習するモデル能力を向上する。
最後に,医療画像解析におけるゼロショット性能の向上を言語を用いて検証する。
論文 参考訳(メタデータ) (2024-03-07T16:11:43Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Multi-Modal Federated Learning for Cancer Staging over Non-IID Datasets
with Unbalanced Modalities [10.352288752713413]
本研究では,データサンプルの不均一性に対応する新しいFLアーキテクチャを提案する。
FLシステム内の様々なデータモダリティにまたがる様々な収束速度に関する課題に光を当てた。
本手法の優位性を示すために,The Cancer Genome Atlas program (TCGA) datalake を用いて実験を行った。
論文 参考訳(メタデータ) (2024-01-07T23:45:01Z) - CLIPSyntel: CLIP and LLM Synergy for Multimodal Question Summarization
in Healthcare [16.033112094191395]
MMQS(Multimodal Medical Question Summarization)データセットを紹介する。
このデータセットは、医用クエリと視覚補助とを組み合わせ、患者のニーズに対するより豊かでニュアンスな理解を促進する。
また、医学的障害を識別し、関連するコンテキストを生成し、医療概念をフィルタリングし、視覚的に認識された要約を作成する4つのモジュールからなるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-16T03:02:05Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Superficial White Matter Analysis: An Efficient Point-cloud-based Deep
Learning Framework with Supervised Contrastive Learning for Consistent
Tractography Parcellation across Populations and dMRI Acquisitions [68.41088365582831]
ホワイトマターパーセレーション(White matter parcellation)は、トラクトグラフィーをクラスタまたは解剖学的に意味のあるトラクトに分類する。
ほとんどのパーセレーション法はディープホワイトマター(DWM)にフォーカスするが、その複雑さのため表面ホワイトマター(SWM)に対処する手法は少ない。
本稿では,2段階の深層学習に基づく新しいフレームワークであるSuperficial White Matter Analysis (SupWMA)を提案する。
論文 参考訳(メタデータ) (2022-07-18T23:07:53Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。