論文の概要: Atomic Depth Estimation From Noisy Electron Microscopy Data Via Deep Learning
- arxiv url: http://arxiv.org/abs/2601.17046v1
- Date: Tue, 20 Jan 2026 19:35:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.091903
- Title: Atomic Depth Estimation From Noisy Electron Microscopy Data Via Deep Learning
- Title(参考訳): 深層学習によるノイズ電子顕微鏡データからの原子深度推定
- Authors: Matan Leibovich, Mai Tan, Adria Marcos-Morales, Sreyas Mohan, Peter A. Crozier, Carlos Fernandez-Granda,
- Abstract要約: この手法は意味的セグメンテーション問題として定式化深度推定に基づいている。
我々は、深部畳み込みニューラルネットワークを訓練し、ピクセル単位の深度セグメンテーションマップを生成することにより、得られたセグメンテーション問題に対処する。
シミュレーション画像と実世界のTEMデータからCeO2ナノ粒子中の原子列の深さを推定するために本手法を適用した。
- 参考スコア(独自算出の注目度): 10.007541523610831
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel approach for extracting 3D atomic-level information from transmission electron microscopy (TEM) images affected by significant noise. The approach is based on formulating depth estimation as a semantic segmentation problem. We address the resulting segmentation problem by training a deep convolutional neural network to generate pixel-wise depth segmentation maps using simulated data corrupted by synthetic noise. The proposed method was applied to estimate the depth of atomic columns in CeO2 nanoparticles from simulated images and real-world TEM data. Our experiments show that the resulting depth estimates are accurate, calibrated and robust to noise.
- Abstract(参考訳): 本稿では,透過電子顕微鏡(TEM)画像から3次元原子レベル情報を抽出する手法を提案する。
この手法は意味的セグメンテーション問題として定式化深度推定に基づいている。
合成雑音によるシミュレーションデータを用いて、深部畳み込みニューラルネットワークをトレーニングし、画素単位の深度セグメンテーションマップを生成することにより、得られたセグメンテーション問題に対処する。
シミュレーション画像と実世界のTEMデータからCeO2ナノ粒子中の原子列の深さを推定するために本手法を適用した。
実験により, 結果の深さ推定値が正確で, 校正され, 騒音に対して頑健であることが確認された。
関連論文リスト
- A Deep Learning Method for Simultaneous Denoising and Missing Wedge Reconstruction in Cryogenic Electron Tomography [23.75819355889607]
本稿では,DeepDeWedgeと呼ばれるウェッジ再構築を同時に行う深層学習手法を提案する。
このアルゴリズムは、基礎となる真理データを必要としないため、ニューラルネットワークを自己教師付きロスを用いて2次元投影に適合させることに基づいている。
論文 参考訳(メタデータ) (2023-11-09T17:34:57Z) - DiffusionDepth: Diffusion Denoising Approach for Monocular Depth
Estimation [23.22005119986485]
DiffusionDepthは、単分子深度推定をデノナイズ拡散過程として再構成する新しいアプローチである。
ランダムな深度分布をモノラルな視覚条件のガイダンスで深度マップに分解する反復的復調過程を学習する。
KITTIとNYU-Depth-V2データセットの実験結果は、シンプルだが効率的な拡散アプローチが、許容可能な推論時間を持つ屋内および屋外の両方のシナリオで最先端のパフォーマンスに達することを示唆している。
論文 参考訳(メタデータ) (2023-03-09T03:48:24Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Depth Completion using Piecewise Planar Model [94.0808155168311]
深度マップは一連の学習された基底で表現することができ、閉じた解法で効率的に解ける。
しかし、この方法の1つの問題は、色境界が深さ境界と矛盾する場合にアーチファクトを生成することである。
私たちは、より厳密な深度回復モデルを実行します。
論文 参考訳(メタデータ) (2020-12-06T07:11:46Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z) - Deep Learning on Image Denoising: An overview [92.07378559622889]
画像認知におけるディープテクニックの比較研究を行っている。
まず、付加的な白色雑音画像に対して、深部畳み込みニューラルネットワーク(CNN)を分類する。
次に、定量的および定性的な分析の観点から、パブリック・デノゲーション・データセットの最先端の手法を比較した。
論文 参考訳(メタデータ) (2019-12-31T05:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。