論文の概要: Stable Optimization for Large Vision Model Based Deep Image Prior in
Cone-Beam CT Reconstruction
- arxiv url: http://arxiv.org/abs/2203.12476v2
- Date: Sun, 28 Jan 2024 13:08:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 01:18:05.006091
- Title: Stable Optimization for Large Vision Model Based Deep Image Prior in
Cone-Beam CT Reconstruction
- Title(参考訳): コーンビームCT画像再構成に先立つ大視野画像の安定的最適化
- Authors: Minghui Wu, Yangdi Xu, Yingying Xu, Guangwei Wu, Qingqing Chen,
Hongxiang Lin
- Abstract要約: LVM(Large Vision Model)は、最近医療画像のタスクにおいて大きな可能性を実証した。
Deep Image Prior(DIP)は、トレーニングされていないニューラルネットワークを効果的にガイドし、トレーニングデータなしで高品質のCBCT画像を生成する。
スパースビューCBCTのためのフォワードモデルフリーDIPモデルの安定最適化法を提案する。
- 参考スコア(独自算出の注目度): 6.558735319783205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Vision Model (LVM) has recently demonstrated great potential for
medical imaging tasks, potentially enabling image enhancement for sparse-view
Cone-Beam Computed Tomography (CBCT), despite requiring a substantial amount of
data for training. Meanwhile, Deep Image Prior (DIP) effectively guides an
untrained neural network to generate high-quality CBCT images without any
training data. However, the original DIP method relies on a well-defined
forward model and a large-capacity backbone network, which is notoriously
difficult to converge. In this paper, we propose a stable optimization method
for the forward-model-free, LVM-based DIP model for sparse-view CBCT. Our
approach consists of two main characteristics: (1) multi-scale perceptual loss
(MSPL) which measures the similarity of perceptual features between the
reference and output images at multiple resolutions without the need for any
forward model, and (2) a reweighting mechanism that stabilizes the iteration
trajectory of MSPL. One shot optimization is used to simultaneously and stably
reweight MSPL and optimize LVM. We evaluate our approach on two publicly
available datasets: SPARE and Walnut. The results show significant improvements
in both image quality metrics and visualization that demonstrates reduced
streak artifacts. The source code is available upon request.
- Abstract(参考訳): 最近、LVM(Large Vision Model)は医療画像のタスクにおいて大きな可能性を示しており、訓練に大量のデータを必要とするにもかかわらず、スパースビューコーンビームCT(CBCT)の画像強調を可能にする可能性がある。
一方、Deep Image Prior(DIP)は、訓練されていないニューラルネットワークを効果的にガイドし、トレーニングデータなしで高品質のCBCT画像を生成する。
しかし、元のDIP法は、よく定義されたフォワードモデルと大容量バックボーンネットワークに依存しており、収束が難しいことが知られている。
本稿では,スパースビューCBCTのためのフォワードモデルフリーLVMベースDIPモデルの安定最適化手法を提案する。
提案手法は,(1)参照画像と出力画像の複数解像度における知覚特徴の類似性を測定するマルチスケール知覚損失(MSPL)と,(2)MSPLの反復軌道を安定化させる再重み付け機構からなる。
ワンショット最適化は、MSPLを安定的にリウェイトし、LVMを最適化するために使用される。
SPAREとWalnutの2つの公開データセットに対するアプローチを評価した。
その結果、画像品質メトリクスと視覚化の両方が大幅に改善され、ストレークアーティファクトの削減が示された。
ソースコードは要求に応じて入手できる。
関連論文リスト
- MsDC-DEQ-Net: Deep Equilibrium Model (DEQ) with Multi-scale Dilated
Convolution for Image Compressive Sensing (CS) [0.0]
圧縮センシング(CS)は、従来のサンプリング法よりも少ない測定値を用いてスパース信号の回復を可能にする技術である。
我々はCSを用いた自然画像再構成のための解釈可能かつ簡潔なニューラルネットワークモデルを構築した。
MsDC-DEQ-Netと呼ばれるこのモデルは、最先端のネットワークベースの手法と比較して、競争力のある性能を示す。
論文 参考訳(メタデータ) (2024-01-05T16:25:58Z) - A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Deep Optimal Transport: A Practical Algorithm for Photo-realistic Image
Restoration [44.47246905244631]
事前学習したモデルの知覚的品質および/または平均二乗誤差(MSE)を制御できる画像復元アルゴリズムを提案する。
モデルによって復元された約1ダースの画像を考えると、新たな画像に対するモデルの知覚的品質と/またはMSEを、それ以上の訓練をすることなく大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-06-04T12:21:53Z) - FastMIM: Expediting Masked Image Modeling Pre-training for Vision [65.47756720190155]
FastMIMは低解像度の入力画像で視覚バックボーンを事前訓練するためのフレームワークである。
入力画像のRGB値の代わりに、向き付け勾配のヒストグラム(Histograms of Oriented Gradients,HOG)機能を再構成する。
ViT-B/Swin-Bをバックボーンとし、ImageNet-1Kで83.8%/84.1%のトップ1の精度を達成できる。
論文 参考訳(メタデータ) (2022-12-13T14:09:32Z) - Deep Learning for Material Decomposition in Photon-Counting CT [0.5801044612920815]
そこで本研究では,PCCTにおける材料分解のための新たな深層学習ソリューションを提案する。
提案手法は,最大推定値,変分法,および完全学習ネットワークよりも優れる。
論文 参考訳(メタデータ) (2022-08-05T19:05:16Z) - Perceptually Optimizing Deep Image Compression [53.705543593594285]
平均二乗誤差(MSE)と$ell_p$ノルムは、ニューラルネットワークの損失の測定で大きく支配されている。
本稿では,定量的知覚モデルに対して,画像解析ネットワークを最適化するための異なるプロキシ手法を提案する。
論文 参考訳(メタデータ) (2020-07-03T14:33:28Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - A Two-step-training Deep Learning Framework for Real-time Computational
Imaging without Physics Priors [0.0]
本稿では,物理を前提としないリアルタイムな計算画像作成のための2段階学習用DL(TST-DL)フレームワークを提案する。
まず、モデルを直接学習するために、単一の完全接続層(FCL)をトレーニングする。
そして、このFCLを未訓練のU-Netアーキテクチャで固定固定し、第2ステップのトレーニングを行い、出力画像の忠実性を改善する。
論文 参考訳(メタデータ) (2020-01-10T15:05:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。