論文の概要: Low-Level Dataset Distillation for Medical Image Enhancement
- arxiv url: http://arxiv.org/abs/2511.13106v1
- Date: Mon, 17 Nov 2025 08:05:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.981433
- Title: Low-Level Dataset Distillation for Medical Image Enhancement
- Title(参考訳): 医用画像強調のための低レベルデータセット蒸留
- Authors: Fengzhi Xu, Ziyuan Yang, Mengyu Sun, Joey Tianyi Zhou, Yi Zhang,
- Abstract要約: 医用画像強調のための第1級低レベルデータセット蒸留法を提案する。
まず、患者間で解剖学的類似性を利用して、共有解剖学的先行性を構築する。
この前者は、Structure-Preserving Personalized Generation (SPG)モジュールを使用して各患者にパーソナライズされる。
低レベルの異なるタスクに対して、蒸留されたデータはタスク固有の高品質と低品質のトレーニングペアを構築するために使用される。
- 参考スコア(独自算出の注目度): 44.15651365046869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image enhancement is clinically valuable, but existing methods require large-scale datasets to learn complex pixel-level mappings. However, the substantial training and storage costs associated with these datasets hinder their practical deployment. While dataset distillation (DD) can alleviate these burdens, existing methods mainly target high-level tasks, where multiple samples share the same label. This many-to-one mapping allows distilled data to capture shared semantics and achieve information compression. In contrast, low-level tasks involve a many-to-many mapping that requires pixel-level fidelity, making low-level DD an underdetermined problem, as a small distilled dataset cannot fully constrain the dense pixel-level mappings. To address this, we propose the first low-level DD method for medical image enhancement. We first leverage anatomical similarities across patients to construct the shared anatomical prior based on a representative patient, which serves as the initialization for the distilled data of different patients. This prior is then personalized for each patient using a Structure-Preserving Personalized Generation (SPG) module, which integrates patient-specific anatomical information into the distilled dataset while preserving pixel-level fidelity. For different low-level tasks, the distilled data is used to construct task-specific high- and low-quality training pairs. Patient-specific knowledge is injected into the distilled data by aligning the gradients computed from networks trained on the distilled pairs with those from the corresponding patient's raw data. Notably, downstream users cannot access raw patient data. Instead, only a distilled dataset containing abstract training information is shared, which excludes patient-specific details and thus preserves privacy.
- Abstract(参考訳): 医用画像の強調は臨床的に有用であるが、既存の手法では複雑なピクセルレベルのマッピングを学習するために大規模なデータセットを必要とする。
しかしながら、これらのデータセットに関連する相当なトレーニングとストレージコストは、実際のデプロイメントを妨げる。
データセット蒸留(DD)はこれらの負担を軽減することができるが、既存の手法は主に複数のサンプルが同じラベルを共有する高レベルなタスクをターゲットにしている。
この多対一マッピングにより、蒸留されたデータは共有セマンティクスをキャプチャし、情報圧縮を達成することができる。
対照的に、低レベルのタスクには、ピクセルレベルの忠実度を必要とする多対多のマッピングが含まれており、小さな蒸留データセットでは高密度のピクセルレベルのマッピングを完全に制限できないため、低レベルのDDは未決定の問題となる。
そこで本研究では,医用画像強調のための第1級低レベルDD法を提案する。
まず, 患者間での解剖学的類似性を利用して, 代表患者に基づく共有解剖学的事前構築を行い, 異なる患者の蒸留データの初期化に役立てる。
この前者は、患者固有の解剖情報を蒸留データセットに統合し、ピクセルレベルの忠実さを保ちながら、各患者にパーソナライズされる。
低レベルの異なるタスクに対して、蒸留されたデータはタスク固有の高品質と低品質のトレーニングペアを構築するために使用される。
患者固有の知識は、蒸留されたペアで訓練されたネットワークから計算された勾配と、対応する患者の生データから得られた勾配を一致させることにより、蒸留されたデータに注入される。
特に、下流のユーザは、生の患者データにアクセスできない。
代わりに、抽象的なトレーニング情報を含む蒸留データセットのみが共有され、患者固有の詳細を除外し、それによってプライバシを保存する。
関連論文リスト
- High-Order Progressive Trajectory Matching for Medical Image Dataset Distillation [38.58097105351775]
トラジェクトリマッチングは、データセット蒸留の有望な方法論として登場した。
本稿では,パラメータ軌跡の幾何学的構造を捉える形状ワイドポテンシャルと,簡易で複雑なマッチング戦略を提案する。
医用画像分類タスクの実験では,プライバシを保ちながら蒸留性能を向上させることが示されている。
論文 参考訳(メタデータ) (2025-09-29T01:45:11Z) - Not All Samples Should Be Utilized Equally: Towards Understanding and Improving Dataset Distillation [57.6797306341115]
我々は,サンプル難易度の観点から,マッチングに基づくDD手法の理解に向けて最初の一歩を踏み出した。
次に、データプルーニングのニューラルネットワークスケーリング法則をDDに拡張し、これらのマッチングベースの手法を理論的に説明する。
SDC(Sampple Difficulty Correction)アプローチを導入し、より簡単なサンプルを生成して、より高いデータセット品質を実現する。
論文 参考訳(メタデータ) (2024-08-22T15:20:32Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - SimCVD: Simple Contrastive Voxel-Wise Representation Distillation for
Semi-Supervised Medical Image Segmentation [7.779842667527933]
我々は,最先端のボクセル表現学習を著しく向上させる,単純なコントラスト蒸留フレームワークであるSimCVDを提案する。
SimCVDは、それぞれ90.85%と89.03%の平均Diceスコアを達成しており、前回の結果と比べて0.91%と2.22%改善している。
論文 参考訳(メタデータ) (2021-08-13T13:17:58Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。