論文の概要: Noise2Filter: fast, self-supervised learning and real-time
reconstruction for 3D Computed Tomography
- arxiv url: http://arxiv.org/abs/2007.01636v1
- Date: Fri, 3 Jul 2020 12:12:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:55:03.327146
- Title: Noise2Filter: fast, self-supervised learning and real-time
reconstruction for 3D Computed Tomography
- Title(参考訳): Noise2Filter:3次元CTのための高速・自己教師型学習とリアルタイム再構成
- Authors: Marinus J. Lagerwerf, Allard A. Hendriksen, Jan-Willem Buurlage and K.
Joost Batenburg
- Abstract要約: X線ビームラインでは、物体の内部の3Dトモグラフィー画像の達成可能な時間分解能が1秒に短縮された。
本研究では,実測データのみを用いて学習可能なフィルタ手法であるNoss2Filterを提案する。
トレーニングデータの追加によるトレーニングと比較して,精度の低下は限定的であり,標準フィルタ法と比較して精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At X-ray beamlines of synchrotron light sources, the achievable
time-resolution for 3D tomographic imaging of the interior of an object has
been reduced to a fraction of a second, enabling rapidly changing structures to
be examined. The associated data acquisition rates require sizable
computational resources for reconstruction. Therefore, full 3D reconstruction
of the object is usually performed after the scan has completed. Quasi-3D
reconstruction -- where several interactive 2D slices are computed instead of a
3D volume -- has been shown to be significantly more efficient, and can enable
the real-time reconstruction and visualization of the interior. However,
quasi-3D reconstruction relies on filtered backprojection type algorithms,
which are typically sensitive to measurement noise. To overcome this issue, we
propose Noise2Filter, a learned filter method that can be trained using only
the measured data, and does not require any additional training data. This
method combines quasi-3D reconstruction, learned filters, and self-supervised
learning to derive a tomographic reconstruction method that can be trained in
under a minute and evaluated in real-time. We show limited loss of accuracy
compared to training with additional training data, and improved accuracy
compared to standard filter-based methods.
- Abstract(参考訳): シンクロトロン光源のX線ビームラインでは、物体の内部の3次元トモグラフィー画像の達成可能な時間分解能が1秒に短縮され、急速に変化する構造を調べることができる。
関連するデータ取得レートは、再構成に巨大な計算資源を必要とする。
したがって、スキャンが完了した後、オブジェクトの完全な3D再構成は通常実行される。
準3D再構成 -- 数個のインタラクティブな2Dスライスを3Dボリュームの代わりに計算する -- は、はるかに効率的で、内部のリアルタイムな再構築と可視化を可能にすることが示されている。
しかし、準3D再構成は、一般的に測定ノイズに敏感なフィルタバックプロジェクション型アルゴリズムに依存している。
本稿では,この問題を解決するために,測定データのみを使用してトレーニング可能で,追加のトレーニングデータを必要としない学習フィルタ法である noise2filter を提案する。
本手法は, 準3次元再構成, 学習フィルタ, 自己教師付き学習を組み合わせることで, 1分以内で訓練し, リアルタイムで評価できるトモグラフィ再構成法を導出する。
訓練データの追加による訓練に比べて精度の低下は限定的であり, 標準フィルタ法と比較して精度が向上した。
関連論文リスト
- A Deep Learning Method for Simultaneous Denoising and Missing Wedge
Reconstruction in Cryogenic Electron Tomography [28.067158404034647]
顕微鏡はサンプルの一連の2Dプロジェクションを収集し、その目標は、トモグラフィーと呼ばれるサンプルの3D密度を再構築することである。
DeepDeWedgeは、ニューラルネットワークを2Dプロジェクションに適合させ、ノイズ2ノイズのような手法にインスパイアされた自己教師付き損失を発生させる。
DeepDeWedgeは、ディープラーニングベースのデノジングと、Cryo-ETトモグラフィのウェッジ再構成の欠如に対する競合的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-09T17:34:57Z) - BS3D: Building-scale 3D Reconstruction from RGB-D Images [25.604775584883413]
本稿では,消費者向け深度カメラを用いた大規模3次元再構築のための使い易いフレームワークを提案する。
複雑で高価な買収設定とは異なり、当社のシステムはクラウドソーシングを可能にする。
論文 参考訳(メタデータ) (2023-01-03T11:46:14Z) - Simulator-Based Self-Supervision for Learned 3D Tomography
Reconstruction [34.93595625809309]
従来の機械学習アプローチでは、トレーニングのために別のアルゴリズムで計算された参照再構成が必要となる。
我々は、ノイズの多い2次元X線データのみを用いて、完全に自己教師された方法でモデルを訓練する。
以上の結果から,既存の再建技術よりも視覚的忠実度が高く,PSNRが優れていた。
論文 参考訳(メタデータ) (2022-12-14T13:21:37Z) - A Self-Supervised Approach to Reconstruction in Sparse X-Ray Computed
Tomography [1.0806206850043696]
この研究は、物理インフォームド変分オートエンコーダである自己教師付き確率的ディープラーニング技術を開発し、検証する。
ディープニューラルネットワークは、スパース2次元の投影測定を、既知の類似したオブジェクトのデータセットをトレーニングすることで3次元の再構成に変換するために使用されている。
高品質な再構成はディープラーニングなしでは生成できず、深層ニューラルネットワークは再構築なしでは学習できない。
論文 参考訳(メタデータ) (2022-10-30T02:33:45Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations [42.476537776831314]
非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
論文 参考訳(メタデータ) (2020-07-21T17:29:20Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。