論文の概要: Exploring Generative Adversarial Networks for Image-to-Image Translation
in STEM Simulation
- arxiv url: http://arxiv.org/abs/2010.15315v1
- Date: Thu, 29 Oct 2020 02:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:46:14.014874
- Title: Exploring Generative Adversarial Networks for Image-to-Image Translation
in STEM Simulation
- Title(参考訳): STEMシミュレーションにおける画像間変換のための生成逆ネットワークの探索
- Authors: Nick Lawrence, Mingren Shen, Ruiqi Yin, Cloris Feng, Dane Morgan
- Abstract要約: 畳み込み法により生成されたSTEM画像を高精度なマルチスライス画像の予測に変換しようとする深層学習モデルについて検討する。
ディープラーニングモデルであるGenerative Adrial Network(GAN)を使用することで、最適な結果が得られ、同一データセット上の従来の回帰モデルと同等の精度で処理できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of accurate scanning transmission electron microscopy (STEM) image
simulation methods require large computation times that can make their use
infeasible for the simulation of many images. Other simulation methods based on
linear imaging models, such as the convolution method, are much faster but are
too inaccurate to be used in application. In this paper, we explore deep
learning models that attempt to translate a STEM image produced by the
convolution method to a prediction of the high accuracy multislice image. We
then compare our results to those of regression methods. We find that using the
deep learning model Generative Adversarial Network (GAN) provides us with the
best results and performs at a similar accuracy level to previous regression
models on the same dataset. Codes and data for this project can be found in
this GitHub repository, https://github.com/uw-cmg/GAN-STEM-Conv2MultiSlice.
- Abstract(参考訳): 正確な走査透過電子顕微鏡(STEM)画像シミュレーション法を使用するには、多くの画像のシミュレーションに使用できないような計算時間を必要とする。
畳み込み法のような線形イメージングモデルに基づく他のシミュレーション手法ははるかに高速であるが、応用には不正確である。
本稿では,畳み込み法により生成されたSTEM画像を高精度なマルチスライス画像の予測に変換しようとする深層学習モデルについて検討する。
そして、その結果を回帰法と比較する。
ディープラーニングモデルを用いたGAN(Generative Adversarial Network)では,最適な結果が得られ,同一データセット上の従来の回帰モデルと同等の精度で処理できることがわかった。
このプロジェクトのコードとデータは、GitHubリポジトリhttps://github.com/uw-cmg/GAN-STEM-Conv2MultiSliceにある。
関連論文リスト
- Heterogeneous Generative Knowledge Distillation with Masked Image
Modeling [33.95780732124864]
Masked Image Modeling (MIM) 法は様々な視覚的タスクにおいて大きな成功を収めるが、ヘテロジニアス深層モデルに対する知識蒸留では未解明のままである。
我々は,MIMに基づくH-GKD (Heterogeneous Generative Knowledge Distillation) を開発した。
本手法は,異種教師モデルからデータの視覚的表現と分布を学習するための,シンプルで効果的な学習パラダイムである。
論文 参考訳(メタデータ) (2023-09-18T08:30:55Z) - Is Deep Learning Network Necessary for Image Generation? [9.131712404284876]
深層学習ネットワークを使わずに画像生成の可能性を検討する。
画像が高次元分布に従うという仮定を検証する。
実験により, 画像のFID値が, 可変オートエンコーダのFID値よりも低いことがわかった。
論文 参考訳(メタデータ) (2023-08-25T18:14:19Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - FakET: Simulating Cryo-Electron Tomograms with Neural Style Transfer [4.578469978594752]
パーティクルローカライゼーションと-クラス化は、計算顕微鏡における最も基本的な2つの問題である。
ディープラーニングベースのアプローチがこれらのタスクに導入され、大きな成功を収めています。
これらの教師付き学習手法の重要な欠点は、大規模なトレーニングデータセットの必要性である。
本稿では, 付加雑音とニューラルスタイル伝達技術に基づいて, 電子顕微鏡のフォワード演算子をシミュレートする手法を提案する。
論文 参考訳(メタデータ) (2023-04-04T17:59:09Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Exploration of Various Deep Learning Models for Increased Accuracy in
Automatic Polyp Detection [62.997667081978825]
本稿では,大腸内視鏡画像におけるポリプの検出精度が高いディープラーニングモデルとアルゴリズムについて検討する。
畳み込みニューラルネットワーク(CNN)を用いたディープラーニングの研究
論文 参考訳(メタデータ) (2022-03-04T04:03:41Z) - An application of a pseudo-parabolic modeling to texture image
recognition [0.0]
偏微分方程式モデルを用いたテクスチャ画像認識のための新しい手法を提案する。
擬似パラボリックなBuckley-Leverett方程式を用いて、デジタル画像表現のダイナミクスを提供し、時間とともに進化するそれらの画像から局所的な記述子を収集する。
論文 参考訳(メタデータ) (2021-02-09T18:08:42Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Radon cumulative distribution transform subspace modeling for image
classification [18.709734704950804]
画像変形モデルの幅広いクラスに適用可能な新しい教師付き画像分類法を提案する。
この方法は、画像データに先述のRandon Cumulative Distribution Transform(R-CDT)を用いる。
テスト精度の向上に加えて,計算効率の向上も示す。
論文 参考訳(メタデータ) (2020-04-07T19:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。