論文の概要: UGoDIT: Unsupervised Group Deep Image Prior Via Transferable Weights
- arxiv url: http://arxiv.org/abs/2505.11720v1
- Date: Fri, 16 May 2025 22:05:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.803808
- Title: UGoDIT: Unsupervised Group Deep Image Prior Via Transferable Weights
- Title(参考訳): UGoDIT:トランスファー可能な重量より前の教師なしのグループディープイメージ
- Authors: Shijun Liang, Ismail R. Alkhouri, Siddhant Gautam, Qing Qu, Saiprasad Ravishankar,
- Abstract要約: UGoDITは、訓練中にごく少数のサブサンプル測定ベクトルMしか利用できない低データ方式のために設計されている。
本手法は,共有エンコーダとMアンタングルデコーダを最適化することにより,転送可能な重みの集合を学習する。
医療用(マルチコイルMRI)と自然用(超分解能・非線形劣化)の画像回復タスクの両面でUGoDITを評価した。
- 参考スコア(独自算出の注目度): 10.447347462729462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in data-centric deep generative models have led to significant progress in solving inverse imaging problems. However, these models (e.g., diffusion models (DMs)) typically require large amounts of fully sampled (clean) training data, which is often impractical in medical and scientific settings such as dynamic imaging. On the other hand, training-data-free approaches like the Deep Image Prior (DIP) do not require clean ground-truth images but suffer from noise overfitting and can be computationally expensive as the network parameters need to be optimized for each measurement set independently. Moreover, DIP-based methods often overlook the potential of learning a prior using a small number of sub-sampled measurements (or degraded images) available during training. In this paper, we propose UGoDIT, an Unsupervised Group DIP via Transferable weights, designed for the low-data regime where only a very small number, M, of sub-sampled measurement vectors are available during training. Our method learns a set of transferable weights by optimizing a shared encoder and M disentangled decoders. At test time, we reconstruct the unseen degraded image using a DIP network, where part of the parameters are fixed to the learned weights, while the remaining are optimized to enforce measurement consistency. We evaluate UGoDIT on both medical (multi-coil MRI) and natural (super resolution and non-linear deblurring) image recovery tasks under various settings. Compared to recent standalone DIP methods, UGoDIT provides accelerated convergence and notable improvement in reconstruction quality. Furthermore, our method achieves performance competitive with SOTA DM-based and supervised approaches, despite not requiring large amounts of clean training data.
- Abstract(参考訳): データ中心の深部生成モデルの最近の進歩は、逆画像問題の解決に大きな進歩をもたらした。
しかしながら、これらのモデル(例えば拡散モデル(DM))は、通常、大量の完全なサンプル(クリーン)トレーニングデータを必要とする。
一方、Deep Image Prior (DIP)のようなトレーニングデータなしのアプローチでは、クリーンな地味な画像を必要としないが、ノイズ過度に悩まされており、ネットワークパラメータを個別に計測セットに最適化する必要があるため、計算コストがかかる。
さらに、DIPベースの手法は、トレーニング中に利用可能な少数のサブサンプル測定(または劣化画像)を使用して、事前学習の可能性を見落としていることが多い。
本稿では,トランスファーブルウェイトを用いた教師なしグループDIPであるUGoDITを提案する。
本手法は,共有エンコーダとMアンタングルデコーダを最適化することにより,転送可能な重みの集合を学習する。
テスト時には、パラメータの一部を学習重量に固定し、残りの部分は測定一貫性を強制するために最適化するDIPネットワークを用いて、見えない劣化画像を再構成する。
医療用(マルチコイルMRI)と自然用(超分解能・非線形劣化)の画像回復タスクの両面において,様々な条件下でUGoDITを評価した。
最近のスタンドアロンDIP法と比較して、UGoDITはコンバージェンスを加速し、再構築品質を顕著に向上させる。
さらに,大量のクリーントレーニングデータを必要とせず,SOTA DMベースおよび教師付きアプローチと競合する性能を実現する。
関連論文リスト
- Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - Improved Distribution Matching Distillation for Fast Image Synthesis [54.72356560597428]
この制限を解除し、MDDトレーニングを改善する一連の技術であるMDD2を紹介する。
まず、回帰損失と高価なデータセット構築の必要性を排除します。
第2に, GAN損失を蒸留工程に統合し, 生成した試料と実画像との識別を行う。
論文 参考訳(メタデータ) (2024-05-23T17:59:49Z) - Ambient Diffusion Posterior Sampling: Solving Inverse Problems with Diffusion Models Trained on Corrupted Data [54.09959775518994]
線形に破損したデータから学習した拡散モデルを用いて逆問題を解決するためのフレームワークを提供する。
加速度係数R=2,4,6,8のサブサンプルによるマルチコイル測定にのみアクセス可能なMRI拡散モデルを訓練する。
高加速度環境下でのMRI再構成において、サブサンプルデータでトレーニングされたA-DPSモデルは、完全サンプルデータでトレーニングされたモデルよりも逆問題の解決に適している。
論文 参考訳(メタデータ) (2024-03-13T17:28:20Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - Stable Optimization for Large Vision Model Based Deep Image Prior in
Cone-Beam CT Reconstruction [6.558735319783205]
LVM(Large Vision Model)は、最近医療画像のタスクにおいて大きな可能性を実証した。
Deep Image Prior(DIP)は、トレーニングされていないニューラルネットワークを効果的にガイドし、トレーニングデータなしで高品質のCBCT画像を生成する。
スパースビューCBCTのためのフォワードモデルフリーDIPモデルの安定最適化法を提案する。
論文 参考訳(メタデータ) (2022-03-23T15:16:29Z) - Data augmentation for deep learning based accelerated MRI reconstruction
with limited data [46.44703053411933]
ディープニューラルネットワークは、画像復元と再構成タスクの非常に成功したツールとして登場した。
最先端のパフォーマンスを達成するためには、大規模で多様な画像集合の訓練が重要であると考えられる。
本稿では,MRI画像再構成の高速化のためのデータ拡張のためのパイプラインを提案し,必要なトレーニングデータを削減する上での有効性について検討する。
論文 参考訳(メタデータ) (2021-06-28T19:08:46Z) - Zero-Shot Self-Supervised Learning for MRI Reconstruction [4.542616945567623]
そこで本研究では,ゼロショット型自己教師型学習手法を提案する。
提案手法は、単一のスキャンから利用可能な測定値を3つの解離集合に分割する。
画像特性の異なるデータベース上に事前学習されたモデルが存在する場合,提案手法は変換学習と組み合わせることで,より高速な収束時間と計算複雑性の低減を実現することができることを示す。
論文 参考訳(メタデータ) (2021-02-15T18:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。