論文の概要: MTS-LOF: Medical Time-Series Representation Learning via
Occlusion-Invariant Features
- arxiv url: http://arxiv.org/abs/2310.12451v1
- Date: Thu, 19 Oct 2023 04:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 17:08:55.060420
- Title: MTS-LOF: Medical Time-Series Representation Learning via
Occlusion-Invariant Features
- Title(参考訳): MTS-LOF: Occlusion-invariant Featuresによる医用時系列表現学習
- Authors: Huayu Li, Ana S. Carreon-Rascon, Xiwen Chen, Geng Yuan, and Ao Li
- Abstract要約: 医療時系列データは医療において不可欠であり、疾患の診断、治療計画、患者の管理に重要な洞察を提供する。
高度なセンサー技術によって駆動されるデータ複雑性の指数関数的増加は、データラベリングに関する課題を提示している。
MTS-LOFとして知られる医療時系列表現学習のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.02339970109459
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical time series data are indispensable in healthcare, providing critical
insights for disease diagnosis, treatment planning, and patient management. The
exponential growth in data complexity, driven by advanced sensor technologies,
has presented challenges related to data labeling. Self-supervised learning
(SSL) has emerged as a transformative approach to address these challenges,
eliminating the need for extensive human annotation. In this study, we
introduce a novel framework for Medical Time Series Representation Learning,
known as MTS-LOF. MTS-LOF leverages the strengths of contrastive learning and
Masked Autoencoder (MAE) methods, offering a unique approach to representation
learning for medical time series data. By combining these techniques, MTS-LOF
enhances the potential of healthcare applications by providing more
sophisticated, context-rich representations. Additionally, MTS-LOF employs a
multi-masking strategy to facilitate occlusion-invariant feature learning. This
approach allows the model to create multiple views of the data by masking
portions of it. By minimizing the discrepancy between the representations of
these masked patches and the fully visible patches, MTS-LOF learns to capture
rich contextual information within medical time series datasets. The results of
experiments conducted on diverse medical time series datasets demonstrate the
superiority of MTS-LOF over other methods. These findings hold promise for
significantly enhancing healthcare applications by improving representation
learning. Furthermore, our work delves into the integration of joint-embedding
SSL and MAE techniques, shedding light on the intricate interplay between
temporal and structural dependencies in healthcare data. This understanding is
crucial, as it allows us to grasp the complexities of healthcare data analysis.
- Abstract(参考訳): 医療時系列データは医療において不可欠であり、疾患診断、治療計画、患者の管理に重要な洞察を提供する。
高度なセンサー技術によって駆動されるデータ複雑性の指数的な増加は、データラベリングに関する課題を提示している。
自己教師付き学習(SSL)は、これらの課題に対処するための変革的なアプローチとして現れ、広範な人間のアノテーションの必要性を排除している。
本研究では,MTS-LOFとして知られる医療時系列表現学習のための新しいフレームワークを提案する。
MTS-LOFは、対照的な学習の強みとMasked Autoencoder(MAE)手法を活用し、医療時系列データの表現学習にユニークなアプローチを提供する。
これらの技術を組み合わせることで、MTS-LOFはより洗練されたコンテキストリッチな表現を提供することで、医療応用の可能性を高める。
さらに、MTS-LOFはオクルージョン不変の特徴学習を容易にするためにマルチマスキング戦略を採用している。
このアプローチでは、モデルがデータの一部をマスクすることで、データの複数のビューを作成できる。
これらのマスクされたパッチと完全に見えるパッチとの差を最小限にすることで、MTS-LOFは医療時系列データセット内のリッチなコンテキスト情報をキャプチャすることを学ぶ。
各種医療時系列データセットを用いた実験の結果,他の手法よりもmts-lofが優れていることが示された。
これらの知見は、表現学習の改善による医療応用の大幅な向上を約束する。
さらに,我々の研究は,ssl と mae 技術を統合して,医療データにおける時間依存と構造依存の複雑な相互作用を浮き彫りにした。
この理解は、医療データ分析の複雑さを把握できるため、非常に重要です。
関連論文リスト
- Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - MedTsLLM: Leveraging LLMs for Multimodal Medical Time Series Analysis [6.30440420617113]
MedTsLLMは、時系列データとリッチな文脈情報をテキスト形式で統合し、生理的信号を解析する汎用多モーダル大規模言語モデル(LLM)フレームワークである。
本研究は,連続時間における意味的セグメンテーション,境界検出,異常検出という,臨床的関連性のある3つのタスクを実行する。
我々のモデルは、深層学習モデル、他のLSM、および複数の医療領域における臨床方法など、最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2024-08-14T18:57:05Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - Open Challenges and Opportunities in Federated Foundation Models Towards Biomedical Healthcare [14.399086205317358]
ファンデーションモデル(FM)は、教師なし事前訓練、自己教師付き学習、微調整の指導、人間のフィードバックからの強化学習など、膨大なデータセットで訓練される。
これらのモデルは、臨床報告、診断画像、マルチモーダル患者間相互作用などの多様なデータフォームの処理を必要とする生体医学的応用に不可欠である。
FLをこれらの洗練されたモデルに組み込むことは、機密性の高い医療データのプライバシーを守りながら、分析能力を活用するという有望な戦略を示す。
論文 参考訳(メタデータ) (2024-05-10T19:22:24Z) - OPTiML: Dense Semantic Invariance Using Optimal Transport for Self-Supervised Medical Image Representation [6.4136876268620115]
自己教師付き学習(SSL)は、アノテーションなしで学習できることから、医用画像解析の有望な技術として登場した。
本稿では, 最適トランスポート(OT)を用いたSSLフレームワークOPTiMLを導入し, 密接なセマンティック不変性と細粒度の詳細を捉える。
実験の結果,OPTiMLはすべての評価課題において最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-18T02:59:48Z) - MedFLIP: Medical Vision-and-Language Self-supervised Fast Pre-Training with Masked Autoencoder [26.830574964308962]
本稿では,医療分析のための高速言語画像事前学習手法であるMedFLIPを紹介する。
交差ドメインを用いたゼロショット学習のためのMAEを探索し、限られたデータから学習するモデルの能力を向上する。
最後に,医療画像解析におけるゼロショット性能の向上を言語を用いて検証する。
論文 参考訳(メタデータ) (2024-03-07T16:11:43Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Multi-Modal Federated Learning for Cancer Staging over Non-IID Datasets with Unbalanced Modalities [9.476402318365446]
本研究では,データサンプルの不均一性だけでなく,機関間のデータモダリティの固有不均一性と不均一性を両立する新しいFLアーキテクチャを提案する。
マルチモーダルFLに適した分散勾配ブレンディングと近接対応クライアント重み付け戦略を考案した。
論文 参考訳(メタデータ) (2024-01-07T23:45:01Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。