論文の概要: STEM image analysis based on deep learning: identification of vacancy
defects and polymorphs of ${MoS_2}$
- arxiv url: http://arxiv.org/abs/2206.04272v1
- Date: Thu, 9 Jun 2022 04:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 16:26:50.947757
- Title: STEM image analysis based on deep learning: identification of vacancy
defects and polymorphs of ${MoS_2}$
- Title(参考訳): 深層学習に基づくSTEM画像解析:${MoS_2}$の空孔欠陥とポリモルフィックの同定
- Authors: Kihyun Lee, Jinsub Park, Soyeon Choi, Yangjin Lee, Sol Lee, Joowon
Jung, Jong-Young Lee, Farman Ullah, Zeeshan Tahir, Yong Soo Kim, Gwan-Hyoung
Lee, and Kwanpyo Kim
- Abstract要約: 2次元結晶の重要な構造的特徴の同定に完全畳み込みネットワーク(FCN)を適用した。
FCNは、様々なレベルのノイズ、収差、炭素汚染の存在下でのシミュレーション画像で訓練されている。
広範囲な実験STEM画像に対するFCNモデルの精度は、注意深いハンズオン分析の精度に匹敵する。
- 参考スコア(独自算出の注目度): 0.49583061314078714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scanning transmission electron microscopy (STEM) is an indispensable tool for
atomic-resolution structural analysis for a wide range of materials. The
conventional analysis of STEM images is an extensive hands-on process, which
limits efficient handling of high-throughput data. Here we apply a fully
convolutional network (FCN) for identification of important structural features
of two-dimensional crystals. ResUNet, a type of FCN, is utilized in identifying
sulfur vacancies and polymorph types of ${MoS_2}$ from atomic resolution STEM
images. Efficient models are achieved based on training with simulated images
in the presence of different levels of noise, aberrations, and carbon
contamination. The accuracy of the FCN models toward extensive experimental
STEM images is comparable to that of careful hands-on analysis. Our work
provides a guideline on best practices to train a deep learning model for STEM
image analysis and demonstrates FCN's application for efficient processing of a
large volume of STEM data.
- Abstract(参考訳): 走査透過電子顕微鏡(STEM)は、幅広い材料の原子分解能構造解析に必須のツールである。
従来のstem画像解析は,高スループットデータの効率的な処理を制限したハンズオンプロセスである。
ここでは2次元結晶の重要な構造特性の同定に完全畳み込みネットワーク(FCN)を適用する。
FCNの一種であるResUNetは、原子分解能STEM画像から硫黄の空孔とポリモルフィックの${MoS_2}$を識別するために利用される。
効率的なモデルは、異なるレベルのノイズ、収差、炭素汚染が存在する場合のシミュレーション画像によるトレーニングに基づいて達成される。
大規模な実験STEM画像に対するFCNモデルの精度は、注意深いハンズオン分析と同等である。
我々の研究は、STEM画像解析のためのディープラーニングモデルを訓練するためのベストプラクティスのガイドラインを提供し、大量のSTEMデータを効率的に処理するためのFCNの応用を実証する。
関連論文リスト
- Deep-Learning Recognition of Scanning Transmission Electron Microscopy: Quantifying and Mitigating the Influence of Gaussian Noises [8.027522565741402]
走査型透過電子顕微鏡(STEM)によるナノ粒子認識のための深層学習マスク領域ベースニューラルネットワーク(Mask R-CNN)を提案する。
The Mask R-CNN model were tested onsimulated STEM-HAADF results with different Gaussian noises, Particle shapes and Particle sizes, and the results showed that Gaussian noise has determined Influence on the accuracy of recognition。
このフィルタリング認識手法はSTEM-HAADF実験結果にさらに適用され,従来のしきい値法と比較して満足度が向上した。
論文 参考訳(メタデータ) (2024-09-25T05:30:18Z) - Unsupervised Reward-Driven Image Segmentation in Automated Scanning Transmission Electron Microscopy Experiments [0.22795086293129713]
走査透過電子顕微鏡(STEM)における自動実験は、人間の解釈、意思決定、サイト選択分光法、原子操作のためのデータ表現を最適化するために、高速な画像分割を必要とする。
本稿では,STEMにおけるオンザフライ画像解析のための報酬駆動最適化ワークフローの運用とベンチマークを行う。
この教師なしのアプローチは、人間のラベルに依存しておらず、完全に説明可能であるため、はるかに堅牢である。
論文 参考訳(メタデータ) (2024-09-19T04:51:13Z) - Determination of droplet size from wide-angle light scattering image
data using convolutional neural networks [0.0]
我々は,畳み込みニューラルネットワーク(CNN)を用いた完全自動機械学習ベースのアプローチを導入し,ドロップレットサイズプロセスの合理化を図る。
燃焼器表面上におけるエタノール噴霧火炎過程のWALSデータについて検討する。
モデルは、約35,000 WALS画像からなる大規模なデータセット上でトレーニングされ、クロスバリデーションされる。
論文 参考訳(メタデータ) (2023-11-03T18:05:47Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Multi-View Photometric Stereo Revisited [100.97116470055273]
多視点測光ステレオ(MVPS)は、画像から被写体を詳細に正確に3D取得する方法として好まれる。
MVPSは異方性や光沢などの他の対象物質と同様に,等方性に対しても有効である。
提案手法は、複数のベンチマークデータセットで広範囲にテストした場合に、最先端の結果を示す。
論文 参考訳(メタデータ) (2022-10-14T09:46:15Z) - Tracking perovskite crystallization via deep learning-based feature
detection on 2D X-ray scattering data [137.47124933818066]
本稿では,より高速なR-CNN深層学習アーキテクチャに基づくX線回折画像の自動解析パイプラインを提案する。
有機-無機ペロブスカイト構造の結晶化をリアルタイムに追跡し, 2つの応用で検証した。
論文 参考訳(メタデータ) (2022-02-22T15:39:00Z) - Disentangling multiple scattering with deep learning: application to
strain mapping from electron diffraction patterns [48.53244254413104]
我々は、高非線形電子回折パターンを定量的構造因子画像に変換するために、FCU-Netと呼ばれるディープニューラルネットワークを実装した。
結晶構造の異なる組み合わせを含む20,000以上のユニークな動的回折パターンを用いてFCU-Netを訓練した。
シミュレーションされた回折パターンライブラリ、FCU-Netの実装、訓練されたモデルの重み付けは、オープンソースリポジトリで自由に利用可能です。
論文 参考訳(メタデータ) (2022-02-01T03:53:39Z) - The Preliminary Results on Analysis of TAIGA-IACT Images Using
Convolutional Neural Networks [68.8204255655161]
本研究の目的は,AIGA-IACTに設定された課題を解決するための機械学習アプリケーションの可能性を検討することである。
The method of Convolutional Neural Networks (CNN) was applied to process and analysis Monte-Carlo eventssimulated with CORSIKA。
論文 参考訳(メタデータ) (2021-12-19T15:17:20Z) - Deep Learning Segmentation of Complex Features in Atomic-Resolution
Phase Contrast Transmission Electron Microscopy Images [0.8049701904919516]
従来の画像処理ツールを用いた位相コントラストTEM研究のための完全自動解析ルーチンの開発は困難です。
グラフェンの大きなサンプル領域の自動分析には、興味のある構造と望ましくない構造の間のセグメンテーションが鍵となる。
深層学習法は, より汎用的で, より簡単に適用でき, 従来のアルゴリズムよりも精度が高く, 頑健な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T21:17:34Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z) - Fast reconstruction of atomic-scale STEM-EELS images from sparse
sampling [11.624024992823928]
原子スケールEELSに適した高速かつ高精度な再構成法を提案する。
この方法は、STEM-EELS画像上で初めて使用されるベータプロセスファクター解析(BPFA)のような一般的なソリューションと比較される。
論文 参考訳(メタデータ) (2020-02-04T11:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。