論文の概要: CodEx: A Modular Framework for Joint Temporal De-blurring and
Tomographic Reconstruction
- arxiv url: http://arxiv.org/abs/2111.06069v1
- Date: Thu, 11 Nov 2021 06:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 15:02:42.140851
- Title: CodEx: A Modular Framework for Joint Temporal De-blurring and
Tomographic Reconstruction
- Title(参考訳): CodEx: 側頭脱青とトモグラフィー再構成のためのモジュラーフレームワーク
- Authors: Soumendu Majee, Selin Aslan, Charles A. Bouman, Doga Gursoy
- Abstract要約: CodExblurは、トモグラフィ再構築を共同で行うためのモジュラーフレームワークである。
シミュレーションデータと実験データを用いて,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 2.4491332399664616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many computed tomography (CT) imaging applications, it is important to
rapidly collect data from an object that is moving or changing with time.
Tomographic acquisition is generally assumed to be step-and-shoot, where the
object is rotated to each desired angle, and a view is taken. However,
step-and-shoot acquisition is slow and can waste photons, so in practice
fly-scanning is done where the object is continuously rotated while collecting
data. However, this can result in motion-blurred views and consequently
reconstructions with severe motion artifacts.
In this paper, we introduce CodEx, a modular framework for joint de-blurring
and tomographic reconstruction that can effectively invert the motion blur
introduced in fly-scanning. The method is a synergistic combination of a novel
acquisition method with a novel non-convex Bayesian reconstruction algorithm.
CodEx works by encoding the acquisition with a known binary code that the
reconstruction algorithm then inverts. Using a well chosen binary code to
encode the measurements can improve the accuracy of the inversion process. The
CodEx reconstruction method uses the alternating direction method of
multipliers (ADMM) to split the inverse problem into iterative deblurring and
reconstruction sub-problems, making reconstruction practical to implement. We
present reconstruction results on both simulated and experimental data to
demonstrate the effectiveness of our method.
- Abstract(参考訳): 多くのCTイメージングアプリケーションでは、時間とともに移動または変化しているオブジェクトからデータを迅速に収集することが重要である。
一般的に、トモグラフィーの取得はステップ・アンド・シューティング(ステップ・アンド・シューティング)であると仮定され、オブジェクトを各所望の角度に回転させ、ビューを取る。
しかし、ステップ・アンド・シューティングの取得は遅く、光子を無駄にすることができるため、実際にはデータ収集中にオブジェクトが連続的に回転する場所でフライスキャンが行われる。
しかし、これは動きのぼんやりしたビューと、重度のモーションアーティファクトによるレコンストラクションをもたらす可能性がある。
本稿では,ハエスキャンで導入された動きのぼかしを効果的に回避できる,関節脱臭とトモグラフィ再構成のためのモジュラーフレームワークであるCodExを紹介する。
本手法は,新規な獲得法と新規な非凸ベイズ再構成アルゴリズムの相乗的組み合わせである。
codexは、リコンストラクションアルゴリズムが反転する既知のバイナリコードで取得をエンコードすることで機能する。
適切に選択されたバイナリコードを使用して測定値をエンコードすれば、反転プロセスの精度が向上する。
CodEx再構成法は,乗算器の交互方向法(ADMM)を用いて,逆問題を反復的デブロアリングと再構成サブプロブレムに分割し,再構成を実用化する。
本手法の有効性を示すため,シミュレーションデータと実験データの両方に再構成結果を示す。
関連論文リスト
- PtychoDV: Vision Transformer-Based Deep Unrolling Network for
Ptychographic Image Reconstruction [12.780951605821238]
PtychoDVは、効率的で高品質な画像再構成のために設計された、新しいディープモデルベースのネットワークである。
シミュレーションデータの結果,PtychoDVは既存のディープラーニング手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-11T14:01:36Z) - In-Domain GAN Inversion for Faithful Reconstruction and Editability [132.68255553099834]
ドメイン誘導型ドメイン正規化とエンコーダで構成されたドメイン内GANインバージョンを提案し、事前学習されたGANモデルのネイティブ潜在空間における反転コードを正規化する。
エンコーダ構造,開始反転点,および逆パラメータ空間の効果を総合的に解析し,再構成品質と編集特性とのトレードオフを観察する。
論文 参考訳(メタデータ) (2023-09-25T08:42:06Z) - vSHARP: variable Splitting Half-quadratic ADMM algorithm for
Reconstruction of inverse-Problems [7.694990352622926]
MRI再建では、不十分な逆問題が発生し、十分なクローズドフォーム解析解が得られない。
逆問題再構成のための教師付き分割半四分法ADMMアルゴリズム(vSHARP)を提案する。
本稿では,vSHARPの優れた性能に着目し,最先端手法による実験結果の比較分析を行った。
論文 参考訳(メタデータ) (2023-09-18T17:26:22Z) - Embracing Compact and Robust Architectures for Multi-Exposure Image
Fusion [50.598654017728045]
本稿では,堅牢なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを含む探索型パラダイムを提案する。
シーンリライティングと変形可能な畳み込みを利用して、カメラの動きに拘わらず、画像を正確に調整することができる。
我々は、様々な競争方式と比較して最先端の性能を実現し、一般的なシナリオと不整合シナリオに対するPSNRの4.02%と29.34%の改善を実現した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Curvature regularization for Non-line-of-sight Imaging from
Under-sampled Data [5.591221518341613]
非視線イメージング(NLOS)は、視線で測定されたデータから3次元の隠れたシーンを再構築することを目的としている。
曲率正規化に基づく新しいNLOS再構成モデルを提案する。
提案したアルゴリズムを,合成データセットと実データセットの両方で評価する。
論文 参考訳(メタデータ) (2023-01-01T14:10:43Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - ReconFormer: Accelerated MRI Reconstruction Using Recurrent Transformer [60.27951773998535]
本稿では,MRI再構成のためのリカレントトランスモデルである textbfReconFormer を提案する。
高度にアンダーサンプリングされたk空間データから高純度磁気共鳴像を反復的に再構成することができる。
パラメータ効率が向上し,最先端手法よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-01-23T21:58:19Z) - Joint Frequency and Image Space Learning for MRI Reconstruction and
Analysis [7.821429746599738]
本稿では、周波数空間データから再構成するための汎用的なビルディングブロックとして、周波数と画像の特徴表現を明示的に組み合わせたニューラルネットワーク層が利用できることを示す。
提案した共同学習方式により、周波数空間に固有のアーティファクトの補正と画像空間表現の操作を両立させ、ネットワークのすべての層でコヒーレントな画像構造を再構築することができる。
論文 参考訳(メタデータ) (2020-07-02T23:54:46Z) - Kullback-Leibler Divergence-Based Fuzzy $C$-Means Clustering
Incorporating Morphological Reconstruction and Wavelet Frames for Image
Segmentation [152.609322951917]
そこで我々は,厳密なウェーブレットフレーム変換と形態的再構成操作を組み込むことで,Kulback-Leibler (KL) 発散に基づくFuzzy C-Means (FCM) アルゴリズムを考案した。
提案アルゴリズムはよく機能し、他の比較アルゴリズムよりもセグメンテーション性能が優れている。
論文 参考訳(メタデータ) (2020-02-21T05:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。