論文の概要: 2-Step Sparse-View CT Reconstruction with a Domain-Specific Perceptual
Network
- arxiv url: http://arxiv.org/abs/2012.04743v1
- Date: Tue, 8 Dec 2020 21:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 23:52:45.082481
- Title: 2-Step Sparse-View CT Reconstruction with a Domain-Specific Perceptual
Network
- Title(参考訳): ドメイン特異的知覚ネットワークを用いた2ステップスパースCT再構成
- Authors: Haoyu Wei, Florian Schiffers, Tobias W\"urfl, Daming Shen, Daniel Kim,
Aggelos K. Katsaggelos, Oliver Cossairt
- Abstract要約: 本稿では,再構成を2段階に分割し,スパースビュートモグラフィのための新しい枠組みを提案する。
中間的な結果は、保存された細部とストリークアーティファクトを高度に縮小したクローズドフォームのトモグラフィー再構成を可能にする。
第2に、復元を訓練したリファインメントネットワークであるprnは、残りのアーティファクトを減らす。
- 参考スコア(独自算出の注目度): 14.577323946585755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed tomography is widely used to examine internal structures in a
non-destructive manner. To obtain high-quality reconstructions, one typically
has to acquire a densely sampled trajectory to avoid angular undersampling.
However, many scenarios require a sparse-view measurement leading to
streak-artifacts if unaccounted for. Current methods do not make full use of
the domain-specific information, and hence fail to provide reliable
reconstructions for highly undersampled data. We present a novel framework for
sparse-view tomography by decoupling the reconstruction into two steps: First,
we overcome its ill-posedness using a super-resolution network, SIN, trained on
the sparse projections. The intermediate result allows for a closed-form
tomographic reconstruction with preserved details and highly reduced
streak-artifacts. Second, a refinement network, PRN, trained on the
reconstructions reduces any remaining artifacts. We further propose a
light-weight variant of the perceptual-loss that enhances domain-specific
information, boosting restoration accuracy. Our experiments demonstrate an
improvement over current solutions by 4 dB.
- Abstract(参考訳): CTは非破壊的に内部構造を調べるために広く用いられている。
高品質な再構成を得るためには、通常、角度アンダーサンプリングを避けるために、密度の高いサンプル軌道を取得する必要がある。
しかし、多くのシナリオはスパースビューの計測を必要とし、未確認であればストリークアーティファクトにつながる。
現在の手法では、ドメイン固有の情報をフルに利用しないため、高度にアンサンプされたデータに対する信頼性の高い再構築ができない。
まず,スパースプロジェクションを訓練した超高分解能ネットワーク,SINを用いて,再構成を2つのステップに分離して,スパース・ビュー・トモグラフィーのための新しいフレームワークを提案する。
中間的な結果は、保存された細部とストリークアーティファクトを高度に縮小したクローズドフォームのトモグラフィー再構成を可能にする。
第2に、復元を訓練したリファインメントネットワークであるprnは、残りのアーティファクトを減らす。
さらに, ドメイン固有情報を強化し, 復元精度を高めた知覚損失の軽量版を提案する。
実験では,現在のソリューションを4db改善した。
関連論文リスト
- DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Unsupervised Adaptive Implicit Neural Representation Learning for
Scan-Specific MRI Reconstruction [8.721677700107639]
アンダーサンプリングにおけるスパーシリティレベルやパターンに制約されることなく、再構成品質を向上させる、教師なし適応型粗大化フレームワークを提案する。
我々は,獲得したk空間信号の自己超越的利用を段階的に洗練する,新しい学習戦略を統合する。
提案手法は,8倍のアンダーサンプリングを行うため,現在最先端のスキャン特異的MRI再構成技術より優れている。
論文 参考訳(メタデータ) (2023-12-01T16:00:16Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Divide-and-Assemble: Learning Block-wise Memory for Unsupervised Anomaly
Detection [40.778313918994996]
再構成に基づく手法は、画像の教師なし異常検出において重要な役割を果たす。
本研究では,画像の再構成を分割組立手順として解釈する。
我々は、挑戦的なMVTec ADデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-28T01:14:32Z) - Unsupervised Knowledge-Transfer for Learned Image Reconstruction [4.183935970343543]
ベイジアンフレームワーク内での反復的再構築を学習するための,教師なしの知識伝達パラダイムを新たに開発する。
提案手法は,視覚だけでなく,PSNRやSSIMの量的にも再現性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-06T12:19:16Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Better Than Ground-truth? Beyond Supervised Learning for Photoacoustic
Imaging Reconstruction [4.748104083612737]
光音響計算トモグラフィ(PACT)は、生のPA信号から初期圧力分布を再構成する。
近年,教師付き深層学習は,地底構造を必要とする限定的な視点問題を克服するために用いられている。
本稿では,限定的な視点の問題を補うために,ディープラーニングに基づく外部教師付き再構築フレームワーク(BSR-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-04T08:53:46Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z) - Limited View Tomographic Reconstruction Using a Deep Recurrent Framework
with Residual Dense Spatial-Channel Attention Network and Sinogram
Consistency [25.16002539710169]
本稿では,同じブロックを複数回積み重ねる新しい繰り返し再構成フレームワークを提案する。
本研究では, 再帰的なブロックの中間出力のシングラムと一致するように, リカレント・フレームワークにインターリーブされたシングラム整合層を構築した。
本アルゴリズムは, 狭角化と狭角化の両面において, 既存の最先端のニューラル手法よりも一貫した, 顕著な改善を実現している。
論文 参考訳(メタデータ) (2020-09-03T16:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。