論文の概要: AutoPhaseNN: Unsupervised Physics-aware Deep Learning of 3D Nanoscale
Coherent Imaging
- arxiv url: http://arxiv.org/abs/2109.14053v1
- Date: Tue, 28 Sep 2021 21:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 14:59:01.743254
- Title: AutoPhaseNN: Unsupervised Physics-aware Deep Learning of 3D Nanoscale
Coherent Imaging
- Title(参考訳): AutoPhaseNN:3Dナノスケールコヒーレントイメージングの教師なし物理認識深層学習
- Authors: Yudong Yao, Henry Chan, Subramanian Sankaranarayanan, Prasanna
Balaprakash, Ross J. Harder, and Mathew J. Cherukara
- Abstract要約: 位相探索の問題は天文学からナノスケールイメージングまで様々なイメージング手法を基礎にしている。
伝統的な位相探索法は本質的に反復的であり、計算に高価で時間を要する。
DLモデルは、学習前の反復位相検索または測定強度のみからの位相情報を置き換える。
- 参考スコア(独自算出の注目度): 5.745058078090997
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The problem of phase retrieval, or the algorithmic recovery of lost phase
information from measured intensity alone, underlies various imaging methods
from astronomy to nanoscale imaging. Traditional methods of phase retrieval are
iterative in nature, and are therefore computationally expensive and time
consuming. More recently, deep learning (DL) models have been developed to
either provide learned priors to iterative phase retrieval or in some cases
completely replace phase retrieval with networks that learn to recover the lost
phase information from measured intensity alone. However, such models require
vast amounts of labeled data, which can only be obtained through simulation or
performing computationally prohibitive phase retrieval on hundreds of or even
thousands of experimental datasets. Using a 3D nanoscale X-ray imaging modality
(Bragg Coherent Diffraction Imaging or BCDI) as a representative technique, we
demonstrate AutoPhaseNN, a DL-based approach which learns to solve the phase
problem without labeled data. By incorporating the physics of the imaging
technique into the DL model during training, AutoPhaseNN learns to invert 3D
BCDI data from reciprocal space to real space in a single shot without ever
being shown real space images. Once trained, AutoPhaseNN is about one hundred
times faster than traditional iterative phase retrieval methods while providing
comparable image quality.
- Abstract(参考訳): 位相検索の問題は、測定強度のみから失われた位相情報のアルゴリズムによる回復であり、天文学からナノスケールイメージングまで様々なイメージング手法が根底にある。
伝統的な位相探索法は本質的に反復的であり、計算コストと時間を要する。
より最近では、繰り返し位相探索の学習先行を提供するためにディープラーニング(DL)モデルが開発され、場合によっては位相探索を完全に置き換えて、計測強度のみから失われた位相情報を復元するネットワークも開発されている。
しかし、そのようなモデルには膨大な量のラベル付きデータが必要であり、数百から数千の実験データセットで計算的に禁止されたフェーズ検索を行うことでのみ得られる。
3次元ナノスケールX線画像モダリティ(Bragg Coherent Diffraction Imaging, BCDI)を代表的手法として,ラベル付きデータなしで位相問題を解くためのDLベースのアプローチであるAutoPhaseNNを実証した。
トレーニング中に画像技術の物理をDLモデルに組み込むことで、AutoPhaseNNは、実際の空間画像を表示することなく、相互空間から実際の空間へ3D BCDIデータを反転させることを学ぶ。
トレーニングが完了すると、AutoPhaseNNは従来の反復位相検索手法の約100倍の速度で画像品質を提供する。
関連論文リスト
- Artifact Reduction in 3D and 4D Cone-beam Computed Tomography Images with Deep Learning -- A Review [0.0]
コーンビームCT(CBCT)における画像品質向上のための深層学習技術
本稿では,3次元のアーティファクトの削減に成功している深層学習技術の概要と,時間分解(4D)CBCTについて概説する。
この研究の重要な発見の1つは、GANやスコアベース、拡散モデルを含む生成モデルの利用に向けた観測傾向である。
論文 参考訳(メタデータ) (2024-03-27T13:46:01Z) - Efficient Physics-Based Learned Reconstruction Methods for Real-Time 3D
Near-Field MIMO Radar Imaging [0.0]
近距離場多重出力多重出力レーダイメージングシステム(MIMO)は近年注目されている。
本稿では,リアルタイム近接場イメージングのための非定位深層学習に基づく新しい再構成手法を提案する。
ゴールは、設定時の計算コストを低くして、高画質を実現することである。
論文 参考訳(メタデータ) (2023-12-28T11:05:36Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - DH-GAN: A Physics-driven Untrained Generative Adversarial Network for 3D
Microscopic Imaging using Digital Holography [3.4635026053111484]
デジタルホログラフィー(Digital holography)は、平面波面を持つレーザービームを物体に放出し、ホログラムと呼ばれる回折波形の強度を測定する3Dイメージング技術である。
近年,より正確なホログラフィック処理に深層学習(DL)法が用いられている。
本稿では, 識別ネットワークを用いて, 復元品質のセマンティック尺度を実現する, 生成的敵ネットワークに基づく新しいDLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:13:45Z) - Advantage of Machine Learning over Maximum Likelihood in Limited-Angle
Low-Photon X-Ray Tomography [0.0]
再建過程における事前分布を決定・適用するために,深層ニューラルネットワークを導入する。
私たちのニューラルネットワークは、合成トレーニングサンプルから直接、事前を学習します。
プロジェクション角と光子予算が限られている場合, 深部生成モデルによる先行モデルにより, IC再建の精度が劇的に向上することが実証された。
論文 参考訳(メタデータ) (2021-11-15T16:24:12Z) - Learning a Model-Driven Variational Network for Deformable Image
Registration [89.9830129923847]
VR-Netは、教師なしの変形可能な画像登録のための新しいカスケード可変ネットワークである。
登録精度において最先端のディープラーニング手法よりも優れています。
ディープラーニングの高速推論速度と変分モデルのデータ効率を維持している。
論文 参考訳(メタデータ) (2021-05-25T21:37:37Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Limited-angle tomographic reconstruction of dense layered objects by
dynamical machine learning [68.9515120904028]
強い散乱準透明物体の有限角トモグラフィーは困難で、非常に不適切な問題である。
このような問題の状況を改善することにより、アーティファクトの削減には、事前の定期化が必要である。
我々は,新しい分割畳み込みゲート再帰ユニット(SC-GRU)をビルディングブロックとして,リカレントニューラルネットワーク(RNN)アーキテクチャを考案した。
論文 参考訳(メタデータ) (2020-07-21T11:48:22Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Real-time 3D Nanoscale Coherent Imaging via Physics-aware Deep Learning [0.7664249650622356]
深層畳み込みニューラルネットワークと微分プログラミングフレームワークである3D-CDI-NNを導入し,3次元構造とひずみを予測する。
私たちのネットワークは、複数の面で「物理認識」するように設計されています。
我々の統合機械学習および微分プログラミングソリューションは、他のアプリケーション領域における逆問題に広く適用できます。
論文 参考訳(メタデータ) (2020-06-16T18:35:32Z) - Data Consistent CT Reconstruction from Insufficient Data with Learned
Prior Images [70.13735569016752]
偽陰性病変と偽陽性病変を呈示し,CT画像再構成における深層学習の堅牢性について検討した。
本稿では,圧縮センシングと深層学習の利点を組み合わせた画像品質向上のためのデータ一貫性再構築手法を提案する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
論文 参考訳(メタデータ) (2020-05-20T13:30:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。