論文の概要: Identification and classification of exfoliated graphene flakes from
microscopy images using a hierarchical deep convolutional neural network
- arxiv url: http://arxiv.org/abs/2203.15252v1
- Date: Tue, 29 Mar 2022 05:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 05:39:06.754216
- Title: Identification and classification of exfoliated graphene flakes from
microscopy images using a hierarchical deep convolutional neural network
- Title(参考訳): 階層型深層畳み込みニューラルネットワークを用いた顕微鏡画像からの剥離グラフェンフレークの同定と分類
- Authors: Soroush Mahjoubi, Fan Ye, Yi Bao, Weina Meng, Xian Zhang
- Abstract要約: 本稿では,Si/SiO2基板上に剥離したグラフェンフレークの厚さを自動的に同定し,分類する深層学習手法を提案する。
提案手法は階層的な深部畳み込みニューラルネットワークを用いて,従来の画像からの知識を保ちながら,新たなイメージを学習することができる。
その結果, 深層学習モデルでは, 抽出したグラフェンフレークの識別と分類に最大99%の精度が得られた。
- 参考スコア(独自算出の注目度): 4.464084686836888
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Identification of the mechanically exfoliated graphene flakes and
classification of the thickness is important in the nanomanufacturing of
next-generation materials and devices that overcome the bottleneck of Moore's
Law. Currently, identification and classification of exfoliated graphene flakes
are conducted by human via inspecting the optical microscope images. The
existing state-of-the-art automatic identification by machine learning is not
able to accommodate images with different backgrounds while different
backgrounds are unavoidable in experiments. This paper presents a deep learning
method to automatically identify and classify the thickness of exfoliated
graphene flakes on Si/SiO2 substrates from optical microscope images with
various settings and background colors. The presented method uses a
hierarchical deep convolutional neural network that is capable of learning new
images while preserving the knowledge from previous images. The deep learning
model was trained and used to classify exfoliated graphene flakes into
monolayer (1L), bi-layer (2L), tri-layer (3L), four-to-six-layer (4-6L),
seven-to-ten-layer (7-10L), and bulk categories. Compared with existing machine
learning methods, the presented method possesses high accuracy and efficiency
as well as robustness to the backgrounds and resolutions of images. The results
indicated that our deep learning model has accuracy as high as 99% in
identifying and classifying exfoliated graphene flakes. This research will shed
light on scaled-up manufacturing and characterization of graphene for advanced
materials and devices.
- Abstract(参考訳): 機械的に剥離したグラフェンフレークの同定と厚さの分類は、ムーアの法則のボトルネックを克服する次世代材料や装置のナノ製造において重要である。
現在, 光学顕微鏡画像の検査により, 剥離したグラフェンフレークの同定と分類が行われている。
機械学習による既存の最先端の自動識別は、異なる背景を持つ画像に対応できないが、異なる背景は実験では避けられない。
本稿では,Si/SiO2基板上の剥離グラフェンフレークの厚さを,様々な設定と背景色で光学顕微鏡画像から自動的に識別し,分類する深層学習手法を提案する。
提案手法は階層的深層畳み込みニューラルネットワークを用いて,従来画像からの知識を保存しつつ,新たな画像の学習を可能にする。
深層学習モデルを用いて, 抽出したグラフェンフレークを単層 (1L), 二層 (2L), 三層 (3L), 4層 (4-6L), 7層 (7-10L), バルクカテゴリに分類した。
既存の機械学習手法と比較すると,提案手法は画像の背景や解像度に対する堅牢性に加えて,高い精度と効率性を有する。
その結果, 深層学習モデルでは, 抽出したグラフェンフレークの識別と分類に最大99%の精度が得られた。
この研究は、グラフェンの高機能材料とデバイスのためのスケールアップ製造とキャラクタリゼーションに光を当てる。
関連論文リスト
- Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - High-Throughput Phenotyping using Computer Vision and Machine Learning [0.0]
我々はオークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と白ラベルで治療を行った。
光文字認識(OCR)は、植物上でこれらのラベルを読むために用いられた。
機械学習モデルを用いて,これらの分類に基づいて処理を予測し,解析されたEXIFタグを用いて葉の大きさと表現型間の相関を見いだした。
論文 参考訳(メタデータ) (2024-07-08T19:46:31Z) - Phenotype-preserving metric design for high-content image reconstruction
by generative inpainting [0.0]
培養細胞の高濃度蛍光顕微鏡による画像修復法について検討した。
DeepFill V2やEdge Connectのようなアーキテクチャは、比較的少ないデータで微調整することで、顕微鏡イメージを忠実に復元できることを示します。
論文 参考訳(メタデータ) (2023-07-26T18:13:16Z) - Application of Artificial Intelligence in the Classification of
Microscopical Starch Images for Drug Formulation [0.0]
デンプンは工場で見られる重要なエネルギー源であり、製薬業界で多くの用途がある。
本研究では,9種類の植物由来のデンプン試料から得られた顕微鏡画像に人工知能技術(トランスファーラーニングと深部畳み込みニューラルネットワークCNN)を適用した。
論文 参考訳(メタデータ) (2023-05-09T10:16:02Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Few-Shot Learning Enables Population-Scale Analysis of Leaf Traits in
Populus trichocarpa [1.9089478605920305]
この研究は、(i)最小のトレーニングデータを必要とする高速で正確な画像ベースの特徴抽出のための方法と、(ii)68種類の葉の表現型を含む新しい集団規模のデータセットを、ドメイン科学者や機械学習研究者向けに植物表現型コミュニティに提供するように設計されている。
数発の学習コード、データ、結果はすべて公開されています。
論文 参考訳(メタデータ) (2023-01-24T23:40:01Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Automated Classification of Nanoparticles with Various Ultrastructures
and Sizes [0.6927055673104933]
走査型電子顕微鏡画像の小さなデータセットから学習したナノ粒子計測と分類のためのディープラーニングに基づく手法を提案する。
本手法は, 局所化, ナノ粒子の検出, 分類, 微細構造の分類の2段階からなる。
画像処理や様々な画像生成ニューラルネットワークを用いて合成画像を生成することで、両方の段階で結果を改善することができることを示す。
論文 参考訳(メタデータ) (2022-07-28T11:31:43Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。