論文の概要: Noise2Filter: fast, self-supervised learning and real-time
reconstruction for 3D Computed Tomography
- arxiv url: http://arxiv.org/abs/2007.01636v1
- Date: Fri, 3 Jul 2020 12:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:55:03.327146
- Title: Noise2Filter: fast, self-supervised learning and real-time
reconstruction for 3D Computed Tomography
- Title(参考訳): Noise2Filter:3次元CTのための高速・自己教師型学習とリアルタイム再構成
- Authors: Marinus J. Lagerwerf, Allard A. Hendriksen, Jan-Willem Buurlage and K.
Joost Batenburg
- Abstract要約: X線ビームラインでは、物体の内部の3Dトモグラフィー画像の達成可能な時間分解能が1秒に短縮された。
本研究では,実測データのみを用いて学習可能なフィルタ手法であるNoss2Filterを提案する。
トレーニングデータの追加によるトレーニングと比較して,精度の低下は限定的であり,標準フィルタ法と比較して精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At X-ray beamlines of synchrotron light sources, the achievable
time-resolution for 3D tomographic imaging of the interior of an object has
been reduced to a fraction of a second, enabling rapidly changing structures to
be examined. The associated data acquisition rates require sizable
computational resources for reconstruction. Therefore, full 3D reconstruction
of the object is usually performed after the scan has completed. Quasi-3D
reconstruction -- where several interactive 2D slices are computed instead of a
3D volume -- has been shown to be significantly more efficient, and can enable
the real-time reconstruction and visualization of the interior. However,
quasi-3D reconstruction relies on filtered backprojection type algorithms,
which are typically sensitive to measurement noise. To overcome this issue, we
propose Noise2Filter, a learned filter method that can be trained using only
the measured data, and does not require any additional training data. This
method combines quasi-3D reconstruction, learned filters, and self-supervised
learning to derive a tomographic reconstruction method that can be trained in
under a minute and evaluated in real-time. We show limited loss of accuracy
compared to training with additional training data, and improved accuracy
compared to standard filter-based methods.
- Abstract(参考訳): シンクロトロン光源のX線ビームラインでは、物体の内部の3次元トモグラフィー画像の達成可能な時間分解能が1秒に短縮され、急速に変化する構造を調べることができる。
関連するデータ取得レートは、再構成に巨大な計算資源を必要とする。
したがって、スキャンが完了した後、オブジェクトの完全な3D再構成は通常実行される。
準3D再構成 -- 数個のインタラクティブな2Dスライスを3Dボリュームの代わりに計算する -- は、はるかに効率的で、内部のリアルタイムな再構築と可視化を可能にすることが示されている。
しかし、準3D再構成は、一般的に測定ノイズに敏感なフィルタバックプロジェクション型アルゴリズムに依存している。
本稿では,この問題を解決するために,測定データのみを使用してトレーニング可能で,追加のトレーニングデータを必要としない学習フィルタ法である noise2filter を提案する。
本手法は, 準3次元再構成, 学習フィルタ, 自己教師付き学習を組み合わせることで, 1分以内で訓練し, リアルタイムで評価できるトモグラフィ再構成法を導出する。
訓練データの追加による訓練に比べて精度の低下は限定的であり, 標準フィルタ法と比較して精度が向上した。
関連論文リスト
- Visual SLAM with 3D Gaussian Primitives and Depth Priors Enabling Novel View Synthesis [11.236094544193605]
従来の幾何学に基づくSLAMシステムは、密度の高い3D再構成機能を持たない。
本稿では,新しいビュー合成技術である3次元ガウススプラッティングを組み込んだリアルタイムRGB-D SLAMシステムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:23:08Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - A Deep Learning Method for Simultaneous Denoising and Missing Wedge Reconstruction in Cryogenic Electron Tomography [23.75819355889607]
本稿では,DeepDeWedgeと呼ばれるウェッジ再構築を同時に行う深層学習手法を提案する。
このアルゴリズムは、基礎となる真理データを必要としないため、ニューラルネットワークを自己教師付きロスを用いて2次元投影に適合させることに基づいている。
論文 参考訳(メタデータ) (2023-11-09T17:34:57Z) - Farm3D: Learning Articulated 3D Animals by Distilling 2D Diffusion [67.71624118802411]
本稿では,カテゴリー固有の3D再構成器の学習方法であるFarm3Dについて述べる。
本稿では,Stable Diffusion などの画像生成装置を用いて,合成学習データを生成するフレームワークを提案する。
我々のネットワークは、単分子再構成や合成などの分析に利用でき、ビデオゲームのようなリアルタイムアプリケーションのための音響資産を生成することができる。
論文 参考訳(メタデータ) (2023-04-20T17:59:34Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Simulator-Based Self-Supervision for Learned 3D Tomography
Reconstruction [34.93595625809309]
従来の機械学習アプローチでは、トレーニングのために別のアルゴリズムで計算された参照再構成が必要となる。
我々は、ノイズの多い2次元X線データのみを用いて、完全に自己教師された方法でモデルを訓練する。
以上の結果から,既存の再建技術よりも視覚的忠実度が高く,PSNRが優れていた。
論文 参考訳(メタデータ) (2022-12-14T13:21:37Z) - A Self-Supervised Approach to Reconstruction in Sparse X-Ray Computed
Tomography [1.0806206850043696]
この研究は、物理インフォームド変分オートエンコーダである自己教師付き確率的ディープラーニング技術を開発し、検証する。
ディープニューラルネットワークは、スパース2次元の投影測定を、既知の類似したオブジェクトのデータセットをトレーニングすることで3次元の再構成に変換するために使用されている。
高品質な再構成はディープラーニングなしでは生成できず、深層ニューラルネットワークは再構築なしでは学習できない。
論文 参考訳(メタデータ) (2022-10-30T02:33:45Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations [42.476537776831314]
非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
論文 参考訳(メタデータ) (2020-07-21T17:29:20Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。