論文の概要: Ptychoformer: A Physics-Guided Deep Learning Framework for Ptychographic Imaging
- arxiv url: http://arxiv.org/abs/2412.06806v1
- Date: Mon, 25 Nov 2024 06:49:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 08:28:37.925552
- Title: Ptychoformer: A Physics-Guided Deep Learning Framework for Ptychographic Imaging
- Title(参考訳): Ptychoformer:Ptychography Imagingのための物理誘導ディープラーニングフレームワーク
- Authors: Han Yue, Jun Cheng, Yu-Xuan Ren, Philip Heng Wai Leong, Steve Feng Shu,
- Abstract要約: PtychoformerはPtychographic Imagingのための物理誘導型ディープラーニングフレームワークである。
注意機構と特徴抽出を回折物理特性と整合させる。
限られたトレーニングデータと低い重複率の下では、堅牢なパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 9.387253806154098
- License:
- Abstract: Ptychographic imaging confronts limitations in applying deep learning (DL) for retrieval from diffraction patterns. Conventional neural architectures are optimized for natural images, overlooking the unique physical characteristics of diffraction data, including radial intensity decay and coherent information distributed in concentric rings. In this paper, we present Ptychoformer, a physics-guided DL framework for ptychographic imaging that aligns attention mechanisms and feature extraction with these diffraction physics properties through introducing a dual-branch architecture which accounts for both local and non-local dependencies from the patterns. It consists of a Polar Coordinate Attention (PCA) mechanism that is inspired by the Ewald construction in X-ray crystallography to enhance high-frequency component fidelity. Experimental results demonstrate Ptychoformer's superior performance across both simulated and real data in preserving fine details and suppressing artifacts. On simulated data, Ptychoformer achieves up to 5.4% higher PSNR and 4.2% higher SSIM for amplitude retrieval compared to existing methods. For real experimental data, it demonstrates up to 12.5% higher PSNR and 31.3% higher SSIM for amplitude retrieval. Notably, Ptychoformer maintains robust performance under limited training data and low overlap ratios, outperforming existing models.
- Abstract(参考訳): Ptychography Imagingは、回折パターンからの検索に深層学習(DL)を適用する際の限界に直面している。
従来のニューラルネットワークは自然画像に最適化されており、放射強度減衰や同心円環に分布するコヒーレント情報を含む回折データの特異な物理的特性を見渡すことができる。
本稿では,Ptychoformerについて述べる。PtychoformerはPtychographic Imagingのための物理誘導型DLフレームワークで,パターンの局所的および非局所的依存関係を考慮に入れたデュアルブランチアーキテクチャを導入し,注意機構と特徴抽出をこれらの回折物理特性と整合させる。
極座標アテンション(PCA)機構は、X線結晶学におけるエワルド構造にインスパイアされ、高周波成分の忠実度を高める。
実験結果からPtychoformerは細部保存やアーティファクトの抑制において,シミュレーションデータと実データの両方で優れた性能を示した。
シミュレーションデータでは、Ptychoformerは既存の手法に比べてPSNRが最大5.4%、SSIMが4.2%高い。
実際の実験データでは、PSNRは最大12.5%、SSIMは31.3%である。
特に、Ptychoformerは、限られたトレーニングデータと低い重複率の下で堅牢なパフォーマンスを維持し、既存のモデルよりも優れています。
関連論文リスト
- PASTA: Towards Flexible and Efficient HDR Imaging Via Progressively Aggregated Spatio-Temporal Alignment [91.38256332633544]
PASTAは、HDRデゴスティングのためのプログレッシブアグリゲーションアグリゲーション・時空間アライメントフレームワークである。
提案手法は,特徴分散中の階層的表現を活用することにより,有効性と効率性を実現する。
実験結果から,従来のSOTA法よりもPASTAの方が視覚的品質と性能の両方で優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T15:05:29Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Physics-Driven Turbulence Image Restoration with Stochastic Refinement [80.79900297089176]
大気乱流による画像歪みは、長距離光学画像システムにおいて重要な問題である。
ディープラーニングモデルが現実世界の乱流条件に適応するために、高速で物理学的なシミュレーションツールが導入された。
本稿では,物理統合復元ネットワーク(PiRN)を提案する。
論文 参考訳(メタデータ) (2023-07-20T05:49:21Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Lossy compression of multidimensional medical images using sinusoidal
activation networks: an evaluation study [0.0]
我々は, 周期的活性化機能を持つニューラルネットワークを用いて, 大規模多次元医用画像データセットを確実に圧縮する方法を評価する。
正弦波アクティベーションネットワークのパラメータを用いて,任意の4次元dMRIデータセットを正確に表現する方法を示す。
その結果,提案手法は平均二乗誤差,ピーク信号-雑音比,構造類似度指数において,ReLUとTanhのアクティベーションパーセプトロンアーキテクチャよりも優れていた。
論文 参考訳(メタデータ) (2022-08-02T17:16:33Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Deep Domain Adversarial Adaptation for Photon-efficient Imaging Based on
Spatiotemporal Inception Network [11.58898808789911]
単光子LiDARでは、光子効率の撮像がシーンの3D構造を1ピクセル当たりの信号でキャプチャする。
このタスクの既存のディープラーニングモデルは、シミュレーションデータセットに基づいてトレーニングされている。
本研究では,空間的・時間的情報を完全に活用して,スパース・ハイノイズ光子計数ヒストグラムから奥行きを正確に予測できる光子効率イメージングのためのネットワーク(STIN)を提案する。
論文 参考訳(メタデータ) (2022-01-07T14:51:48Z) - PAS-MEF: Multi-exposure image fusion based on principal component
analysis, adaptive well-exposedness and saliency map [0.0]
通常の低ダイナミックレンジ(LDR)キャプチャ/表示装置では、大きなダイナミックレンジの自然シーンのため、画像に重要な詳細が保存されない場合がある。
本研究では, 簡便かつ効果的な重み抽出法を用いて, 効率的なマルチ露光融合(MEF)手法を提案する。
既存の手法と実験的に比較した結果,提案手法は非常に強い統計的および視覚的結果が得られた。
論文 参考訳(メタデータ) (2021-05-25T10:22:43Z) - Noise Reduction in X-ray Photon Correlation Spectroscopy with
Convolutional Neural Networks Encoder-Decoder Models [0.0]
2時間相関関数における信号対雑音比を改善するための計算手法を提案する。
CNN-EDモデルは、畳み込みニューラルネットワークデコーダ(CNN-ED)モデルに基づいている。
実世界の実験データに基づいて訓練されたCNN-EDモデルにより,2時間相関関数から平衡力学パラメータを効果的に抽出できることが実証された。
論文 参考訳(メタデータ) (2021-02-07T18:38:59Z) - CNN-Based Image Reconstruction Method for Ultrafast Ultrasound Imaging [9.659642285903418]
超高速超音波(US)は、フルビューフレームを1kHz以上で取得できるバイオメディカルイメージングに革命をもたらした。
強い回折アーチファクトに悩まされ、主に格子状葉、サイドローブ、エッジウェーブによって引き起こされる。
本稿では,2段階の畳み込みニューラルネットワーク(CNN)を用いた画像再構成手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T17:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。