論文の概要: Clean Implicit 3D Structure from Noisy 2D STEM Images
- arxiv url: http://arxiv.org/abs/2203.15434v1
- Date: Tue, 29 Mar 2022 11:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 16:33:55.410247
- Title: Clean Implicit 3D Structure from Noisy 2D STEM Images
- Title(参考訳): ノイズ2次元STEM画像からのクリーンインプリシト3次元構造
- Authors: Hannah Kniesel, Timo Ropinski, Tim Bergner, Kavitha Shaga Devan,
Clarissa Read, Paul Walther, Tobias Ritschel and Pedro Hermosilla
- Abstract要約: 本研究では,STEMにおける2次元センサノイズのジョイントモデルを暗黙の3次元モデルとともに学習することができることを示す。
これらのモデルを組み合わせることで,3次元信号とノイズを監視せずに解離させることができ,同時に,合成データと実データに基づくいくつかのベースラインを達成できることが示される。
- 参考スコア(独自算出の注目度): 19.04251929587417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scanning Transmission Electron Microscopes (STEMs) acquire 2D images of a 3D
sample on the scale of individual cell components. Unfortunately, these 2D
images can be too noisy to be fused into a useful 3D structure and facilitating
good denoisers is challenging due to the lack of clean-noisy pairs.
Additionally, representing a detailed 3D structure can be difficult even for
clean data when using regular 3D grids. Addressing these two limitations, we
suggest a differentiable image formation model for STEM, allowing to learn a
joint model of 2D sensor noise in STEM together with an implicit 3D model. We
show, that the combination of these models are able to successfully disentangle
3D signal and noise without supervision and outperform at the same time several
baselines on synthetic and real data.
- Abstract(参考訳): 走査透過電子顕微鏡(STEM)は、個々の細胞成分のスケールで3Dサンプルの2D画像を取得する。
残念なことに、これらの2dイメージはノイズが多すぎて有用な3d構造に融合できない場合があり、クリーンなノイズのペアがないため、良いデノワザの促進が難しい。
さらに、通常の3Dグリッドを使用する場合、クリーンなデータであっても詳細な3D構造を表現することは困難である。
これら2つの制約に対処するため、STEMの異なる画像形成モデルを提案し、暗黙の3次元モデルとともにSTEMにおける2次元センサノイズのジョイントモデルを学ぶことができる。
これらのモデルの組み合わせによって、3d信号とノイズを監視せずにうまく分離でき、合成データと実データで複数のベースラインを上回ることができることを示す。
関連論文リスト
- Enhancing Single Image to 3D Generation using Gaussian Splatting and Hybrid Diffusion Priors [17.544733016978928]
単一の画像から3Dオブジェクトを生成するには、野生で撮影された未ポーズのRGB画像から、目に見えない景色の完全な3D形状とテクスチャを推定する必要がある。
3次元オブジェクト生成の最近の進歩は、物体の形状とテクスチャを再構築する技術を導入している。
本稿では, この限界に対応するために, 2次元拡散モデルと3次元拡散モデルとのギャップを埋めることを提案する。
論文 参考訳(メタデータ) (2024-10-12T10:14:11Z) - ConDense: Consistent 2D/3D Pre-training for Dense and Sparse Features from Multi-View Images [47.682942867405224]
ConDenseは既存の2Dネットワークと大規模マルチビューデータセットを利用した3D事前トレーニングのためのフレームワークである。
組込み型2Dと3Dの特徴をエンドツーエンドのパイプラインで抽出する新しい2D-3Dジョイントトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T05:57:01Z) - Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Likelihood-Based Generative Radiance Field with Latent Space
Energy-Based Model for 3D-Aware Disentangled Image Representation [43.41596483002523]
本稿では,Neural Radiance Fields (NeRF) による3次元表現と,可変ボリュームレンダリングによる2次元画像処理を併用した3次元画像生成モデルを提案する。
いくつかのベンチマークデータセットの実験では、NeRF-LEBMは2D画像から3Dオブジェクト構造を推測し、新しいビューとオブジェクトで2D画像を生成し、不完全な2D画像から学び、未知のカメラポーズで2D画像から学ぶことができる。
論文 参考訳(メタデータ) (2023-04-16T23:44:41Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z) - 3inGAN: Learning a 3D Generative Model from Images of a Self-similar
Scene [34.2144933185175]
3inGANは、単一の自己相似3Dシーンの2D画像から訓練された無条件3D生成モデルである。
実地および合成源から得られた,様々なスケールと複雑さの半確率的な場面での結果を示す。
論文 参考訳(メタデータ) (2022-11-27T18:03:21Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - Improving 3D-aware Image Synthesis with A Geometry-aware Discriminator [68.0533826852601]
3Dを意識した画像合成は、画像のリアルな2D画像の描画が可能な生成モデルを学ぶことを目的としている。
既存の方法では、適度な3D形状が得られない。
本稿では,3次元GANの改良を目的とした幾何学的識別器を提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:37Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - Three-dimensional Microstructural Image Synthesis from 2D Backscattered Electron Image of Cement Paste [10.632881687161762]
フレームワーク(CEM3DMG)は、2D後方散乱電子(BSE)画像から微細構造情報を学習することにより3D画像を合成するように設計されている。
視覚的な観察により、生成された3D画像は細孔や粒子形態を含む2D画像と類似した微細構造を示すことが確認された。
論文 参考訳(メタデータ) (2022-04-04T16:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。