論文の概要: Progressive trajectory matching for medical dataset distillation
- arxiv url: http://arxiv.org/abs/2403.13469v1
- Date: Wed, 20 Mar 2024 10:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 17:18:34.493825
- Title: Progressive trajectory matching for medical dataset distillation
- Title(参考訳): 医療用データセット蒸留における進行軌跡マッチング
- Authors: Zhen Yu, Yang Liu, Qingchao Chen,
- Abstract要約: プライバシーの問題から、医療画像データセットの共有は不可欠だが難しい。
医用画像データセットを合成データに凝縮する新しいデータセット蒸留法を提案する。
- 参考スコア(独自算出の注目度): 15.116863763717623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is essential but challenging to share medical image datasets due to privacy issues, which prohibit building foundation models and knowledge transfer. In this paper, we propose a novel dataset distillation method to condense the original medical image datasets into a synthetic one that preserves useful information for building an analysis model without accessing the original datasets. Existing methods tackle only natural images by randomly matching parts of the training trajectories of the model parameters trained by the whole real datasets. However, through extensive experiments on medical image datasets, the training process is extremely unstable and achieves inferior distillation results. To solve these barriers, we propose to design a novel progressive trajectory matching strategy to improve the training stability for medical image dataset distillation. Additionally, it is observed that improved stability prevents the synthetic dataset diversity and final performance improvements. Therefore, we propose a dynamic overlap mitigation module that improves the synthetic dataset diversity by dynamically eliminating the overlap across different images and retraining parts of the synthetic images for better convergence. Finally, we propose a new medical image dataset distillation benchmark of various modalities and configurations to promote fair evaluations. It is validated that our proposed method achieves 8.33% improvement over previous state-of-the-art methods on average, and 11.7% improvement when ipc=2 (i.e., image per class is 2). Codes and benchmarks will be released.
- Abstract(参考訳): 基礎モデルの構築や知識伝達を禁止しているプライバシー問題のため、医療画像データセットの共有は不可欠だが困難である。
本稿では, 医用画像データセットを, 元のデータセットにアクセスすることなく, 分析モデルを構築する上で有用な情報を保持する合成データセットに凝縮する新しいデータセット蒸留法を提案する。
既存の手法は、実際のデータセット全体によって訓練されたモデルパラメータのトレーニング軌跡の一部をランダムにマッチングすることで、自然画像のみに対処する。
しかし、医用画像データセットに関する広範な実験により、トレーニングプロセスは非常に不安定であり、低い蒸留結果が得られる。
これらの障壁を解決するため、医用画像データセット蒸留のトレーニング安定性を向上させるために、新しい進行軌道マッチング戦略を設計することを提案する。
さらに, 安定性の向上により, 合成データセットの多様性や最終的な性能向上が防止されることがわかった。
そこで本稿では, 画像間の重なりを動的に排除し, コンバージェンスを向上させることで, 合成データセットの多様性を向上させる動的重なり緩和モジュールを提案する。
最後に, 公正な評価を促進するために, 様々なモダリティと構成の医用画像データセット蒸留ベンチマークを提案する。
提案手法は,従来の最先端手法に比べて平均8.33%改善し,ipc=2で11.7%改善した。
コードとベンチマークがリリースされる。
関連論文リスト
- Dataset Distillation in Medical Imaging: A Feasibility Study [16.44272552893816]
医療画像解析分野におけるデータの共有は、まだ未承認のままである。
可能な解決策の1つは、同様のモデルパフォーマンスを保ちながら、データセット全体の転送を避けることである。
コンピュータ科学におけるデータ蒸留の最近の進歩は、医療データを効率的に共有する有望な可能性を示している。
論文 参考訳(メタデータ) (2024-07-19T15:59:04Z) - FairDiff: Fair Segmentation with Point-Image Diffusion [15.490776421216689]
本研究は,合成画像を統合することで,データ駆動型戦略強化データバランスを採用する。
3つのネットワークを経験的リスクと公平性の目標に向けて最適化する,共同最適化方式で問題を定式化する。
本モデルは,最先端のフェアネス学習モデルと比較して,優れたフェアネスセグメンテーション性能を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:58Z) - Image Distillation for Safe Data Sharing in Histopathology [10.398266052019675]
病理組織学は、臨床医が正確な診断を行い、疾患の予後を判断し、適切な治療戦略を立案するのに役立つ。
深層学習技術が医療分野で成功していることが証明されるにつれ、主な課題はデータ可用性の制限とデータ共有とプライバシに関する懸念である。
私たちは、制約なしに共有できる必須情報をカプセル化する小さな合成データセットを作成します。
我々は,潜在拡散モデルを訓練し,少数の可読性合成画像を用いた新しい蒸留合成データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T13:19:08Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - One Category One Prompt: Dataset Distillation using Diffusion Models [22.512552596310176]
本稿では,D3M(Diffusion Models)をデータセット蒸留の新たなパラダイムとして導入し,生成的テキスト・画像基盤モデルの最近の進歩を活用する。
提案手法では,テキストから画像への合成モデルを微調整する手法であるテキストインバージョンを用いて,大規模データセットの簡潔かつ情報的な表現を生成する。
論文 参考訳(メタデータ) (2024-03-11T20:23:59Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - Data Distillation Can Be Like Vodka: Distilling More Times For Better
Quality [78.6359306550245]
蒸留に1つの合成部分集合を用いるだけでは最適な一般化性能は得られない。
PDDは複数の小さな合成画像集合を合成し、それぞれ前の集合に条件付けし、これらの部分集合の累積和でモデルを訓練する。
実験の結果, PDDは既存のデータセット蒸留法の性能を最大4.3%向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-10-10T20:04:44Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。