論文の概要: TS-P$^2$CL: Plug-and-Play Dual Contrastive Learning for Vision-Guided Medical Time Series Classification
- arxiv url: http://arxiv.org/abs/2509.17802v1
- Date: Mon, 22 Sep 2025 13:57:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.426383
- Title: TS-P$^2$CL: Plug-and-Play Dual Contrastive Learning for Vision-Guided Medical Time Series Classification
- Title(参考訳): TS-P$^2$CL:ビジョンガイド型医用時系列分類のためのプラグアンドプレイデュアルコントラスト学習
- Authors: Qi'ao Xu, Pengfei Wang, Bo Zhong, Tianwen Qian, Xiaoling Wang, Ye Wang, Hong Yu,
- Abstract要約: 1次元の生理的信号を2次元の擬似イメージに変換する視覚誘導パラダイムを導入し、視覚領域へのブリッジを確立する。
マルチコントラスト学習戦略を採用する一方、クロスモーダルアライメントは時系列ダイナミクスと視覚的セマンティクスを協調する。
6つのMedTSデータセットの実験により、TS-P$2$CLは、主題に依存しない設定と対象に依存しない設定の両方で14のメソッドを一貫して上回っていることが示された。
- 参考スコア(独自算出の注目度): 26.293489194966003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical time series (MedTS) classification is pivotal for intelligent healthcare, yet its efficacy is severely limited by poor cross-subject generation due to the profound cross-individual heterogeneity. Despite advances in architectural innovations and transfer learning techniques, current methods remain constrained by modality-specific inductive biases that limit their ability to learn universally invariant representations. To overcome this, we propose TS-P$^2$CL, a novel plug-and-play framework that leverages the universal pattern recognition capabilities of pre-trained vision models. We introduce a vision-guided paradigm that transforms 1D physiological signals into 2D pseudo-images, establishing a bridge to the visual domain. This transformation enables implicit access to rich semantic priors learned from natural images. Within this unified space, we employ a dual-contrastive learning strategy: intra-modal consistency enforces temporal coherence, while cross-modal alignment aligns time-series dynamics with visual semantics, thereby mitigating individual-specific biases and learning robust, domain-invariant features. Extensive experiments on six MedTS datasets demonstrate that TS-P$^2$CL consistently outperforms fourteen methods in both subject-dependent and subject-independent settings.
- Abstract(参考訳): 医療時系列分類(MedTS)は、知的医療において重要であるが、その効果は、深い異種間異質性のため、不適切な異物生成によって著しく制限される。
アーキテクチャの革新と伝達学習技術の進歩にもかかわらず、現在の手法は、普遍的に不変な表現を学習する能力を制限するモダリティ固有の帰納的バイアスによって制約されている。
そこで本稿では,事前学習した視覚モデルの汎用的なパターン認識機能を活用する,新しいプラグイン・アンド・プレイフレームワークTS-P$^2$CLを提案する。
1次元の生理的信号を2次元の擬似イメージに変換する視覚誘導パラダイムを導入し、視覚領域へのブリッジを確立する。
この変換により、自然画像から学んだ豊富なセマンティック先行情報への暗黙的なアクセスが可能になる。
モーダル内整合性は時間的コヒーレンスを強制し、一方、モーダル間整合性は時系列のダイナミクスを視覚的意味論と整合させ、それによって個人固有のバイアスを緩和し、堅牢でドメイン不変な特徴を学習する。
6つのMedTSデータセットに対する大規模な実験により、TS-P$^2$CLは主題に依存しない設定と対象に依存しない設定の両方で14の手法を一貫して上回っていることが示された。
関連論文リスト
- Toward Robust Medical Fairness: Debiased Dual-Modal Alignment via Text-Guided Attribute-Disentangled Prompt Learning for Vision-Language Models [34.42749153279352]
視覚言語モデル(VLM)は強力な一般化を示し、テキストはアイデンティティ属性をエンコードする。
本稿では,マルチモーダルなプロンプト学習フレームワークであるDualFairVLを提案する。
実験により、DualFairVLは、イン・オブ・オブ・ディストリビューション設定とアウト・オブ・ディストリビューション設定の両方で、最先端の公正性と正確性を達成することが示された。
論文 参考訳(メタデータ) (2025-08-26T10:01:23Z) - CLIPin: A Non-contrastive Plug-in to CLIP for Multimodal Semantic Alignment [18.06190021750863]
大規模な自然画像テキストデータセットは、監督の弱いため、しばしば緩やかなセマンティックアライメントに悩まされる。
私たちはCLIPスタイルのアーキテクチャにシームレスに統合できる統合された非コントラストプラグインであるCLIPinを提案する。
2つの共有ロバスト性事前プロジェクタは、コントラスト学習と非コントラスト学習の統合を容易にするために、それぞれ画像とテキストのモダリティのために設計されている。
論文 参考訳(メタデータ) (2025-08-08T16:23:05Z) - NEARL-CLIP: Interacted Query Adaptation with Orthogonal Regularization for Medical Vision-Language Understanding [51.63264715941068]
textbfNEARL-CLIP (iunderlineNteracted quunderlineEry underlineAdaptation with ounderlineRthogonaunderlineL regularization)は、VLMベースの新しい相互モダリティ相互作用フレームワークである。
論文 参考訳(メタデータ) (2025-08-06T05:44:01Z) - MoCa: Modality-aware Continual Pre-training Makes Better Bidirectional Multimodal Embeddings [75.0617088717528]
MoCaは、トレーニング済みのVLMバックボーンを効果的な双方向埋め込みモデルに変換するためのフレームワークである。
MoCaは、MMEBとViDoRe-v2ベンチマークのパフォーマンスを継続的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-06-29T06:41:00Z) - Intrapartum Ultrasound Image Segmentation of Pubic Symphysis and Fetal Head Using Dual Student-Teacher Framework with CNN-ViT Collaborative Learning [1.5233179662962222]
pubic symphysis and fetal head (PSFH) の分節は、労働の進行をモニターし、潜在的に引き起こされる合併症を特定するための重要なステップである。
従来の半教師付き学習アプローチは、主に畳み込みニューラルネットワーク(CNN)に基づく統合ネットワークモデルを利用する。
CNN と Transformer を組み合わせた新しいフレームワークである Dual-Student and Teacher Combining CNN (DSTCT) を導入する。
論文 参考訳(メタデータ) (2024-09-11T00:57:31Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Local Spatiotemporal Representation Learning for
Longitudinally-consistent Neuroimage Analysis [7.568469725821069]
本稿では,長手画像に基づいて訓練された画像から画像への局所的・多スケールの時間的表現学習手法を提案する。
微調整中、オブジェクト内相関を利用するために驚くほど単純な自己教師付きセグメンテーション整合規則化を提案する。
これらの改善は、長手神経変性成人と発達期脳MRIの両方で示され、より高いパフォーマンスと長手整合性が得られる。
論文 参考訳(メタデータ) (2022-06-09T05:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。