論文の概要: MCDIP-ADMM: Overcoming Overfitting in DIP-based CT reconstruction
- arxiv url: http://arxiv.org/abs/2304.03895v3
- Date: Thu, 1 Jun 2023 09:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 23:57:58.236117
- Title: MCDIP-ADMM: Overcoming Overfitting in DIP-based CT reconstruction
- Title(参考訳): MCDIP-ADMM : DIPによるCT再構成におけるオーバーフィッティングの克服
- Authors: Chen Cheng, Qingping Zhou
- Abstract要約: 本稿では,CT再構成における教師なし学習手法の適用について検討する。
DIPは表現的・視覚的性能の点で他の3つよりも優れていた。
我々は,MultiCode Deep Image Prior と Plug-and-play Alternative Method of Multipliers に基づく新しい手法 (MCDIPADMM) を提案する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the application of unsupervised learning methods for
computed tomography (CT) reconstruction. To motivate our work, we review
several existing priors, namely the truncated Gaussian prior, the $l_1$ prior,
the total variation prior, and the deep image prior (DIP). We find that DIP
outperforms the other three priors in terms of representational capability and
visual performance. However, the performance of DIP deteriorates when the
number of iterations exceeds a certain threshold due to overfitting. To address
this issue, we propose a novel method (MCDIP-ADMM) based on Multi-Code Deep
Image Prior and plug-and-play Alternative Direction Method of Multipliers.
Specifically, MCDIP utilizes multiple latent codes to generate a series of
feature maps at an intermediate layer within a generator model. These maps are
then composed with trainable weights, representing the complete image prior.
Experimental results demonstrate the superior performance of the proposed
MCDIP-ADMM compared to three existing competitors. In the case of parallel beam
projection with Gaussian noise, MCDIP-ADMM achieves an average improvement of
4.3 dB over DIP, 1.7 dB over ADMM DIP-WTV, and 1.2 dB over PnP-DIP in terms of
PSNR. Similarly, for fan-beam projection with Poisson noise, MCDIP-ADMM
achieves an average improvement of 3.09 dB over DIP, 1.86 dB over ADMM DIP-WTV,
and 0.84 dB over PnP-DIP in terms of PSNR.
- Abstract(参考訳): 本稿では,CT再構成における教師なし学習手法の適用について検討する。
本研究の動機付けとして,既存のガウス前駆体,l_1$前駆体,全変動前駆体,深部画像前駆体(DIP)について検討した。
DIPは表現能力と視覚性能の点で他の3つよりも優れていた。
しかし、オーバーフィットによりイテレーション数が一定のしきい値を超えるとディップの性能が低下する。
この問題に対処するために,マルチコード深層画像優先法と,マルチプライヤのプラグアンドプレイ代替方向法に基づく新しい手法(MCDIP-ADMM)を提案する。
具体的には、MCDIPは複数の潜在コードを使用して、ジェネレータモデル内の中間層で一連の特徴写像を生成する。
これらの地図はトレーニング可能な重みで構成され、前の完全なイメージを表す。
MCDIP-ADMMは既存の3つの競合と比較して優れた性能を示した。
ガウス雑音を伴う平行ビーム投影の場合、MCDIP-ADMMはDIPで4.3dB、ADMM DIP-WTVで1.7dB、PSNRで1.2dBとなる。
同様に、ポアソンノイズを伴うファンビーム投影では、CDIP-ADMMはDIP平均3.09dB、ADMM DIP-WTV平均1.86dB、PSNRではPnP-DIP平均0.84dBを達成する。
関連論文リスト
- Bring Metric Functions into Diffusion Models [145.71911023514252]
DDPM(Denoising Diffusion Probabilistic Model)を改善するカスケード拡散モデル(Cas-DM)を導入する。
提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最先端画像品質(FID, sFID, IS)を実現する。
実験結果から,提案した拡散モデルバックボーンはLPIPS損失の有効利用を可能にし,最新画像品質(FID, sFID, IS)につながることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:55:01Z) - Prior Mismatch and Adaptation in PnP-ADMM with a Nonconvex Convergence
Analysis [20.63188897629508]
Plug-and-Playは、逆イメージング問題を解決するために広く使われているファミリーメソッドである。
ディープ・メソッドは、前者が強力なデノイザを用いて得られるとき、最先端の性能を達成することが示されている。
論文 参考訳(メタデータ) (2023-09-29T20:49:00Z) - vSHARP: variable Splitting Half-quadratic ADMM algorithm for
Reconstruction of inverse-Problems [7.694990352622926]
MRI再建では、不十分な逆問題が発生し、十分なクローズドフォーム解析解が得られない。
逆問題再構成のための教師付き分割半四分法ADMMアルゴリズム(vSHARP)を提案する。
本稿では,vSHARPの優れた性能に着目し,最先端手法による実験結果の比較分析を行った。
論文 参考訳(メタデータ) (2023-09-18T17:26:22Z) - Learning Energy-Based Models by Cooperative Diffusion Recovery
Likelihood [70.96045509920326]
高次元データに対する最大推定値のトレーニングエネルギーベースモデル(EBMs)は、困難かつ時間を要する可能性がある。
本研究では,データセットの雑音の増大する頂点上で定義された一連のEMMから,協調拡散回復確率(CDRL)を抽出し,抽出する手法を提案する。
CIFAR-10 と ImageNet 32x32 の既存 EBM 法と比較して FID のスコアが大幅に向上し,DRL を2倍高速化した。
論文 参考訳(メタデータ) (2023-09-10T22:05:24Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Unfolding Framework with Prior of Convolution-Transformer Mixture and
Uncertainty Estimation for Video Snapshot Compressive Imaging [7.601695814245209]
本稿では, 連続する高速フレームを異なるマスクで変調し, 単一の計測でキャプチャする, ビデオスナップショット圧縮画像(SCI)の問題点について考察する。
最適化アルゴリズムとニューラルネットワークを組み合わせることで、ディープ・アンフォールディング・ネットワーク(DUN)は、逆問題の解決において大きな成果を上げた。
論文 参考訳(メタデータ) (2023-06-20T06:25:48Z) - Deep Metric Learning for Unsupervised Remote Sensing Change Detection [60.89777029184023]
リモートセンシング変化検出(RS-CD)は、マルチテンポラルリモートセンシング画像(MT-RSI)から関連する変化を検出することを目的とする。
既存のRS-CD法の性能は、大規模な注釈付きデータセットのトレーニングによるものである。
本稿では,これらの問題に対処可能なディープメトリック学習に基づく教師なしCD手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:52:45Z) - CDPMSR: Conditional Diffusion Probabilistic Models for Single Image
Super-Resolution [91.56337748920662]
拡散確率モデル(DPM)は画像から画像への変換において広く採用されている。
単純だが自明なDPMベースの超解像後処理フレームワーク,すなわちcDPMSRを提案する。
本手法は, 定性的および定量的な結果の両面において, 先行試行を超越した手法である。
論文 参考訳(メタデータ) (2023-02-14T15:13:33Z) - Optimality Guarantees for Particle Belief Approximation of POMDPs [55.83001584645448]
部分的に観測可能なマルコフ決定プロセス(POMDP)は、現実の意思決定と制御の問題に対する柔軟な表現を提供する。
POMDPは、特に状態と観測空間が連続的またはハイブリッドである場合、解決するのが非常に難しい。
本稿では,これらのアルゴリズムが使用する粒子フィルタリング手法の近似誤差を特徴付ける理論を提案する。
論文 参考訳(メタデータ) (2022-10-10T21:11:55Z) - Model-Based Machine Learning for Joint Digital Backpropagation and PMD
Compensation [10.119875242641207]
最近提案された学習デジタルバックプロパゲーション(LDBP)と分極モード分散(PMD)の分散補償を組み合わせたハードウェアフレンドリーな時間領域非線形性緩和法
LDBP-PMD を複数の PMD 実現に向けて訓練し,最大 dB 性能の 1% 以内に収束することを示す。
実用システムにおける最先端のラッピングPMD補償アルゴリズムと同様に、我々の手法は、リンクに沿った特定のMDD実現に関する知識や、蓄積されたPMDに関する知識を前提としない。
論文 参考訳(メタデータ) (2020-10-23T11:37:35Z) - A Robust Imbalanced SAR Image Change Detection Approach Based on Deep
Difference Image and PCANet [20.217242547269947]
深層学習に基づく非平衡多時間合成開口レーダ(SAR)画像に対して,新しいロバストな変化検出手法を提案する。
我々の主な貢献は、差分画像を生成する新しい方法と並列ファジィc-means(FCM)クラスタリング法を開発することである。
実験の結果,提案手法は不均衡なSARデータに対して有効で頑健であり,ほとんどの最先端手法よりも99.52%変化検出精度を実現していることがわかった。
論文 参考訳(メタデータ) (2020-03-03T20:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。