論文の概要: Ptychoformer: A Physics-Guided Deep Learning Framework for Ptychographic Imaging
- arxiv url: http://arxiv.org/abs/2412.06806v1
- Date: Mon, 25 Nov 2024 06:49:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 08:28:37.925552
- Title: Ptychoformer: A Physics-Guided Deep Learning Framework for Ptychographic Imaging
- Title(参考訳): Ptychoformer:Ptychography Imagingのための物理誘導ディープラーニングフレームワーク
- Authors: Han Yue, Jun Cheng, Yu-Xuan Ren, Philip Heng Wai Leong, Steve Feng Shu,
- Abstract要約: PtychoformerはPtychographic Imagingのための物理誘導型ディープラーニングフレームワークである。
注意機構と特徴抽出を回折物理特性と整合させる。
限られたトレーニングデータと低い重複率の下では、堅牢なパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 9.387253806154098
- License:
- Abstract: Ptychographic imaging confronts limitations in applying deep learning (DL) for retrieval from diffraction patterns. Conventional neural architectures are optimized for natural images, overlooking the unique physical characteristics of diffraction data, including radial intensity decay and coherent information distributed in concentric rings. In this paper, we present Ptychoformer, a physics-guided DL framework for ptychographic imaging that aligns attention mechanisms and feature extraction with these diffraction physics properties through introducing a dual-branch architecture which accounts for both local and non-local dependencies from the patterns. It consists of a Polar Coordinate Attention (PCA) mechanism that is inspired by the Ewald construction in X-ray crystallography to enhance high-frequency component fidelity. Experimental results demonstrate Ptychoformer's superior performance across both simulated and real data in preserving fine details and suppressing artifacts. On simulated data, Ptychoformer achieves up to 5.4% higher PSNR and 4.2% higher SSIM for amplitude retrieval compared to existing methods. For real experimental data, it demonstrates up to 12.5% higher PSNR and 31.3% higher SSIM for amplitude retrieval. Notably, Ptychoformer maintains robust performance under limited training data and low overlap ratios, outperforming existing models.
- Abstract(参考訳): Ptychography Imagingは、回折パターンからの検索に深層学習(DL)を適用する際の限界に直面している。
従来のニューラルネットワークは自然画像に最適化されており、放射強度減衰や同心円環に分布するコヒーレント情報を含む回折データの特異な物理的特性を見渡すことができる。
本稿では,Ptychoformerについて述べる。PtychoformerはPtychographic Imagingのための物理誘導型DLフレームワークで,パターンの局所的および非局所的依存関係を考慮に入れたデュアルブランチアーキテクチャを導入し,注意機構と特徴抽出をこれらの回折物理特性と整合させる。
極座標アテンション(PCA)機構は、X線結晶学におけるエワルド構造にインスパイアされ、高周波成分の忠実度を高める。
実験結果からPtychoformerは細部保存やアーティファクトの抑制において,シミュレーションデータと実データの両方で優れた性能を示した。
シミュレーションデータでは、Ptychoformerは既存の手法に比べてPSNRが最大5.4%、SSIMが4.2%高い。
実際の実験データでは、PSNRは最大12.5%、SSIMは31.3%である。
特に、Ptychoformerは、限られたトレーニングデータと低い重複率の下で堅牢なパフォーマンスを維持し、既存のモデルよりも優れています。
関連論文リスト
- Muographic Image Upsampling with Machine Learning for Built Infrastructure Applications [2.983520467199724]
非侵襲イメージング技術であるミューグラフィーは、宇宙線ミューオンの相互作用を検出することによって三次元密度マップを構築する。
宇宙線ミューオンは、その高いモーメントと天然資源のために、深く浸透し、固有の安全を提供する。
しかし、この技術はムーンフラックスに制約を課し、長期の取得に繋がる。
これらの制約に対処する2モデル深層学習手法を開発した。
論文 参考訳(メタデータ) (2025-02-04T14:37:37Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - PASTA: Towards Flexible and Efficient HDR Imaging Via Progressively Aggregated Spatio-Temporal Alignment [91.38256332633544]
PASTAは、HDRデゴスティングのためのプログレッシブアグリゲーションアグリゲーション・時空間アライメントフレームワークである。
提案手法は,特徴分散中の階層的表現を活用することにより,有効性と効率性を実現する。
実験結果から,従来のSOTA法よりもPASTAの方が視覚的品質と性能の両方で優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T15:05:29Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Physics-Driven Turbulence Image Restoration with Stochastic Refinement [80.79900297089176]
大気乱流による画像歪みは、長距離光学画像システムにおいて重要な問題である。
ディープラーニングモデルが現実世界の乱流条件に適応するために、高速で物理学的なシミュレーションツールが導入された。
本稿では,物理統合復元ネットワーク(PiRN)を提案する。
論文 参考訳(メタデータ) (2023-07-20T05:49:21Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deep Domain Adversarial Adaptation for Photon-efficient Imaging Based on
Spatiotemporal Inception Network [11.58898808789911]
単光子LiDARでは、光子効率の撮像がシーンの3D構造を1ピクセル当たりの信号でキャプチャする。
このタスクの既存のディープラーニングモデルは、シミュレーションデータセットに基づいてトレーニングされている。
本研究では,空間的・時間的情報を完全に活用して,スパース・ハイノイズ光子計数ヒストグラムから奥行きを正確に予測できる光子効率イメージングのためのネットワーク(STIN)を提案する。
論文 参考訳(メタデータ) (2022-01-07T14:51:48Z) - PAS-MEF: Multi-exposure image fusion based on principal component
analysis, adaptive well-exposedness and saliency map [0.0]
通常の低ダイナミックレンジ(LDR)キャプチャ/表示装置では、大きなダイナミックレンジの自然シーンのため、画像に重要な詳細が保存されない場合がある。
本研究では, 簡便かつ効果的な重み抽出法を用いて, 効率的なマルチ露光融合(MEF)手法を提案する。
既存の手法と実験的に比較した結果,提案手法は非常に強い統計的および視覚的結果が得られた。
論文 参考訳(メタデータ) (2021-05-25T10:22:43Z) - Noise Reduction in X-ray Photon Correlation Spectroscopy with
Convolutional Neural Networks Encoder-Decoder Models [0.0]
2時間相関関数における信号対雑音比を改善するための計算手法を提案する。
CNN-EDモデルは、畳み込みニューラルネットワークデコーダ(CNN-ED)モデルに基づいている。
実世界の実験データに基づいて訓練されたCNN-EDモデルにより,2時間相関関数から平衡力学パラメータを効果的に抽出できることが実証された。
論文 参考訳(メタデータ) (2021-02-07T18:38:59Z) - CNN-Based Image Reconstruction Method for Ultrafast Ultrasound Imaging [9.659642285903418]
超高速超音波(US)は、フルビューフレームを1kHz以上で取得できるバイオメディカルイメージングに革命をもたらした。
強い回折アーチファクトに悩まされ、主に格子状葉、サイドローブ、エッジウェーブによって引き起こされる。
本稿では,2段階の畳み込みニューラルネットワーク(CNN)を用いた画像再構成手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T17:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。