論文の概要: Stretched sinograms for limited-angle tomographic reconstruction with
neural networks
- arxiv url: http://arxiv.org/abs/2306.10201v1
- Date: Fri, 16 Jun 2023 22:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 23:46:18.584288
- Title: Stretched sinograms for limited-angle tomographic reconstruction with
neural networks
- Title(参考訳): ニューラルネットワークを用いた有限角度断層撮影のためのストレッチドシンノグラム
- Authors: Kyle Luther, Sebastian Seung
- Abstract要約: 本稿では,畳み込みネットワークを用いた限られた角度トモグラフィ再構成法を提案する。
本手法の鍵は、傾き角度のセカントによって傾き軸に傾き方向のすべての傾きビューをまず伸ばすことである。
我々は、ネットワークが生成した再構成と地上の真理3次元ボリュームとの間の平均2乗誤差を最小化してネットワークを訓練する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a direct method for limited angle tomographic reconstruction using
convolutional networks. The key to our method is to first stretch every tilt
view in the direction perpendicular to the tilt axis by the secant of the tilt
angle. These stretched views are then fed into a 2-D U-Net which directly
outputs the 3-D reconstruction. We train our networks by minimizing the mean
squared error between the network's generated reconstruction and a ground truth
3-D volume. To demonstrate and evaluate our method, we synthesize tilt views
from a 3-D image of fly brain tissue acquired with Focused Ion Beam Scanning
Electron Microscopy. We compare our method to using a U-Net to directly
reconstruct the unstretched tilt views and show that this simple stretching
procedure leads to significantly better reconstructions. We also compare to
using a network to clean up reconstructions generated by backprojection and
filtered backprojection, and find that this simple stretching procedure also
gives lower mean squared error on previously unseen images.
- Abstract(参考訳): 本稿では,畳み込みネットワークを用いた限られた角度トモグラフィ再構成法を提案する。
本手法の鍵となるのは、傾き角度のセカントにより、傾き軸に垂直な方向のすべての傾きビューをまず伸ばすことである。
これらのストレッチされたビューは2次元のU-Netに入力され、3次元再構成を直接出力する。
ネットワークの生成した再構成と基底真理3次元ボリュームの間の平均二乗誤差を最小にすることでネットワークを訓練する。
本手法の実証と評価のために,Focused Ion Beam Scanning Electron Microscopyで得られたハエ脳組織の3次元像から傾斜像を合成した。
本手法をu-netを用いて直接チルトビューを再構成する手法と比較し,この簡単なストレッチ処理により,復元精度が著しく向上することを示す。
また、バックプロジェクションやフィルタされたバックプロジェクションによって生成された再構成をネットワークで除去する手法と比較し、この単純なストレッチ手順は、これまで見られなかった画像に対して平均2乗誤差を低くする。
関連論文リスト
- 2L3: Lifting Imperfect Generated 2D Images into Accurate 3D [16.66666619143761]
マルチビュー(MV)3次元再構成は,生成したMV画像を一貫した3次元オブジェクトに融合させる,有望なソリューションである。
しかし、生成された画像は、通常、一貫性のない照明、不整合幾何学、スパースビューに悩まされ、復元の質が低下する。
本稿では, 内在的分解誘導, 過渡的モノ先行誘導, および3つの問題に対処するための視認性向上を活用する新しい3次元再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T02:30:31Z) - Weakly-Supervised 3D Reconstruction of Clothed Humans via Normal Maps [1.6462601662291156]
そこで本研究では,2次元正規地図を用いた布地人の3次元再構築のための新しい深層学習手法を提案する。
一つのRGB画像またはマルチビュー画像から、我々のネットワークは、静止ポーズで体を囲む四面体メッシュ上で識別された符号付き距離関数(SDF)を推定する。
ネットワーク推論と3次元再構成の両方に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-27T18:06:35Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - Black-Box Test-Time Shape REFINEment for Single View 3D Reconstruction [57.805334118057665]
文献中の任意のブラックボックス方式のパイプラインに容易に組み込むことができる後処理メッシュ改善ステップであるREFINEを提案する。
テスト時には、REFINEはメッシュ毎のネットワークインスタンスを最適化し、メッシュと所定のオブジェクトビュー間の一貫性を促進する。
論文 参考訳(メタデータ) (2021-08-23T03:28:47Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Riggable 3D Face Reconstruction via In-Network Optimization [58.016067611038046]
本稿では,単眼画像からの3次元顔再構成法を提案する。
表情、ポーズ、照明を含む画像ごとのパーソナライズされた顔リグとパラメータを共同で推定する。
実験により,SOTA復元精度,ロバスト性,一般化能力が得られた。
論文 参考訳(メタデータ) (2021-04-08T03:53:20Z) - Reconstruct, Rasterize and Backprop: Dense shape and pose estimation
from a single image [14.9851111159799]
本稿では,1枚の画像から6-DoFポーズとともに高密度物体再構成を行うシステムを提案する。
我々は、カメラフレームの3D再構成でループを閉じるために、差別化可能なレンダリング(特にロボティクス)の最近の進歩を活用している。
論文 参考訳(メタデータ) (2020-04-25T20:53:43Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - Learning Nonparametric Human Mesh Reconstruction from a Single Image
without Ground Truth Meshes [56.27436157101251]
そこで本研究では,人間のメッシュ再構築を基礎となる真理メッシュを使わずに学習する手法を提案する。
これはグラフ畳み込みニューラルネットワーク(Graph CNN)の損失関数に2つの新しい用語を導入することで実現される。
論文 参考訳(メタデータ) (2020-02-28T20:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。