論文の概要: InvCoSS: Inversion-driven Continual Self-supervised Learning in Medical Multi-modal Image Pre-training
- arxiv url: http://arxiv.org/abs/2512.19213v1
- Date: Mon, 22 Dec 2025 09:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.699763
- Title: InvCoSS: Inversion-driven Continual Self-supervised Learning in Medical Multi-modal Image Pre-training
- Title(参考訳): InvCoSS:医療用マルチモーダル画像事前学習におけるインバージョン駆動型継続的自己教師型学習
- Authors: Zihao Luo, Shaohao Rui, Zhenyu Tang, Guotai Wang, Xiaosong Wang,
- Abstract要約: 医用画像における連続自己教師学習(CSSL)は、基礎モデルを逐次訓練する。
InvCoSSは,医療用マルチモーダル画像事前学習のためのインバージョン駆動型継続的自己教師型学習フレームワークである。
InvCoSSは、事前訓練された自己教師付きモデルを反転させ、元のトレーニング分布を近似した合成画像を生成する。
- 参考スコア(独自算出の注目度): 7.7475546440997265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual self-supervised learning (CSSL) in medical imaging trains a foundation model sequentially, alleviating the need for collecting multi-modal images for joint training and offering promising improvements in downstream performance while preserving data privacy. However, most existing methods still rely on replaying data from previous stages to prevent catastrophic forgetting, which compromises privacy and limits their applicability in real-world scenarios where data transfer across sites is often restricted. In this work, we propose InvCoSS, an inversion-driven continual self-supervised learning framework for medical multi-modal image pre-training. Specifically, after training on a previous task, InvCoSS inverts the pre-trained self-supervised model to generate synthetic images that approximate the original training distribution. These synthetic images are then combined with data from the new task for joint optimization, which effectively mitigates catastrophic forgetting while strictly adhering to the constraint of no access to previous real data. Furthermore, to improve the fidelity of synthetic images, we introduce a novel InvUNet with a multi-scale fusion architecture to restore both high- and low-frequency components of the inverted images. To enhance diversity and prevent mode collapse, we design a repulsive representation-learning mechanism that encourages a diverse feature space for synthetic images without class guidance. Extensive experiments across nine downstream tasks validate the effectiveness of InvCoSS, achieving performance comparable to or even superior to prior data-replay methods while significantly reducing storage requirements and eliminating data privacy constraints.
- Abstract(参考訳): 医用画像の連続的自己教師学習(CSSL)は、連続的に基礎モデルを訓練し、ジョイントトレーニングのためのマルチモーダルイメージの収集の必要性を軽減し、データプライバシを保ちながら、下流のパフォーマンスの有望な改善を提供する。
しかし、既存のほとんどのメソッドは、破滅的な忘れ込みを防ぐために、以前のステージからのデータをリプレイすることに依存しており、これはプライバシを侵害し、サイト間のデータ転送がしばしば制限される現実のシナリオにおける適用性を制限している。
本研究では,医療用マルチモーダル画像事前学習のための逆駆動型連続的自己教師型学習フレームワークであるInvCoSSを提案する。
具体的には、以前のタスクでトレーニングした後、InvCoSSはトレーニング済みの自己教師付きモデルを反転させ、元のトレーニング分布を近似した合成画像を生成する。
これらの合成画像は、共同最適化のための新しいタスクのデータと組み合わせられ、破滅的な忘れを効果的に軽減すると同時に、以前の実データへのアクセスの制限を厳格に固執する。
さらに,合成画像の忠実度を向上させるために,逆画像の高周波数成分と低周波成分を復元するマルチスケール融合アーキテクチャを備えた新しいInvUNetを導入する。
多様性を高め,モデム崩壊を防ぐため,クラスガイダンスを使わずに,多様な特徴空間を合成画像に付与する反動型表現学習機構を設計する。
9つのダウンストリームタスクにわたる大規模な実験は、InvCoSSの有効性を検証し、以前のデータ再生手法に匹敵するパフォーマンスを達成し、ストレージ要件を著しく削減し、データプライバシの制約を取り除く。
関連論文リスト
- Privacy-Aware Continual Self-Supervised Learning on Multi-Window Chest Computed Tomography for Domain-Shift Robustness [38.350720506451104]
胸部CT画像から多彩な特徴を同時に学習するための新しい連続自己教師学習(CSSL)フレームワークを提案する。
本稿では,ワッサースタイン距離に基づく知識蒸留(WKD)とバッチ知識アンサンブル(BKE)を統合した特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2025-10-31T06:16:31Z) - LD-RPS: Zero-Shot Unified Image Restoration via Latent Diffusion Recurrent Posterior Sampling [38.700993166492495]
本稿では,事前学習した潜伏拡散モデルを用いた再帰サンプリングによるデータセットフリーで統一的な手法を提案する。
本手法では,マルチモーダル理解モデルを用いて,タスクブレンド条件下で生成モデルにセマンティックな事前情報を提供する。
論文 参考訳(メタデータ) (2025-07-01T14:25:09Z) - Synthetic Data is an Elegant GIFT for Continual Vision-Language Models [52.343627275005026]
GIFTはVision-Language Modelsにおける破滅的な忘れを克服するための、新しい連続的な微調整手法である。
我々は、事前学習と下流タスクデータの両方を再現するために、事前学習した拡散モデルを用いる。
提案手法は,様々な設定において従来手法よりも常に優れていた。
論文 参考訳(メタデータ) (2025-03-06T09:09:18Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - FoundIR: Unleashing Million-scale Training Data to Advance Foundation Models for Image Restoration [66.61201445650323]
既存の手法は現実のシナリオにおける一般化ボトルネックに悩まされる。
既存のトレーニングデータに対して,2つの大きなメリットがある,100万規模のデータセットをコントリビュートしています。
実世界のシナリオにおいて,より広範囲の復元作業に対処するために,ロバストなモデルFoundIRを提案する。
論文 参考訳(メタデータ) (2024-12-02T12:08:40Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Progressive trajectory matching for medical dataset distillation [15.116863763717623]
プライバシーの問題から、医療画像データセットの共有は不可欠だが難しい。
医用画像データセットを合成データに凝縮する新しいデータセット蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-20T10:18:20Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。