論文の概要: Quantification and Classification of Carbon Nanotubes in Electron Micrographs using Vision Foundation Models
- arxiv url: http://arxiv.org/abs/2601.06673v1
- Date: Sat, 10 Jan 2026 20:22:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.933449
- Title: Quantification and Classification of Carbon Nanotubes in Electron Micrographs using Vision Foundation Models
- Title(参考訳): ビジョン基礎モデルを用いた電子顕微鏡におけるカーボンナノチューブの定量化と分類
- Authors: Sanjay Pradeep, Chen Wang, Matthew M. Dahm, Jeff D. Eldredge, Candace S. J. Tsai,
- Abstract要約: 本研究は、電子顕微鏡画像におけるCNTの定量化と分類を自動化するために、視覚基盤モデルを活用した統一的なフレームワークを提案する。
本稿では,最小限のユーザ入力を用いて,粒子をほぼ完全精度で分割するSegment Anything Model(SAM)上に構築した対話的定量化ツールを提案する。
第二に,これらのセグメンテーションマスクを用いて空間的にDINOv2視覚変換器を拘束し,背景雑音を抑えながら粒子領域からのみ特徴を抽出する新しい分類パイプラインを提案する。
1,800 TEM画像のデータセットに基づいて評価され、このアーキテクチャは4つの異なるCNT形態の区別において95.5%の精度を達成する。
- 参考スコア(独自算出の注目度): 1.8969168959157112
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate characterization of carbon nanotube morphologies in electron microscopy images is vital for exposure assessment and toxicological studies, yet current workflows rely on slow, subjective manual segmentation. This work presents a unified framework leveraging vision foundation models to automate the quantification and classification of CNTs in electron microscopy images. First, we introduce an interactive quantification tool built on the Segment Anything Model (SAM) that segments particles with near-perfect accuracy using minimal user input. Second, we propose a novel classification pipeline that utilizes these segmentation masks to spatially constrain a DINOv2 vision transformer, extracting features exclusively from particle regions while suppressing background noise. Evaluated on a dataset of 1,800 TEM images, this architecture achieves 95.5% accuracy in distinguishing between four different CNT morphologies, significantly outperforming the current baseline despite using a fraction of the training data. Crucially, this instance-level processing allows the framework to resolve mixed samples, correctly classifying distinct particle types co-existing within a single field of view. These results demonstrate that integrating zero-shot segmentation with self-supervised feature learning enables high-throughput, reproducible nanomaterial analysis, transforming a labor-intensive bottleneck into a scalable, data-driven process.
- Abstract(参考訳): 電子顕微鏡画像におけるカーボンナノチューブ形態の正確な評価は、露光評価や毒性研究に不可欠であるが、現在のワークフローは、ゆっくりとした主観的な手動セグメンテーションに依存している。
本研究は、電子顕微鏡画像におけるCNTの定量化と分類を自動化するために、視覚基盤モデルを活用した統一的なフレームワークを提案する。
まず,Segment Anything Model(SAM)上に構築された対話型量子化ツールを導入し,最小限のユーザ入力を用いて粒子をほぼ完全精度で分割する。
第二に,これらのセグメンテーションマスクを用いて空間的にDINOv2視覚変換器を拘束し,背景雑音を抑えながら粒子領域からのみ特徴を抽出する新しい分類パイプラインを提案する。
1,800 TEM画像のデータセットに基づいて評価され、このアーキテクチャは4つの異なるCNT形態の区別において95.5%の精度を達成する。
重要なことに、このインスタンスレベルの処理は混合サンプルの解決を可能にし、単一の視野内で共存する異なる粒子タイプを正しく分類する。
これらの結果は、ゼロショットセグメンテーションと自己教師付き特徴学習を統合することで、高スループットで再現可能なナノマテリアル分析を可能にし、労働集約的なボトルネックをスケーラブルでデータ駆動のプロセスに変換することを実証している。
関連論文リスト
- Zero-shot Shape Classification of Nanoparticles in SEM Images using Vision Foundation Models [0.9466841964978984]
形状分類のための従来のディープラーニング手法は、広範囲なラベル付きデータセットと計算的な訓練を必要とする。
本研究では,2つの視覚基盤モデルを利用したゼロショット分類パイプラインを提案する。
我々は3つの形態学的に多様なナノ粒子データセットにまたがる高精度な形状分類を実現する。
論文 参考訳(メタデータ) (2025-08-05T09:03:56Z) - Machine Learning for Identifying Grain Boundaries in Scanning Electron Microscopy (SEM) Images of Nanoparticle Superlattices [0.0]
ナノ粒子超格子の走査型電子顕微鏡(SEM)画像における粒界分割の自動化のための機械学習ワークフローを提案する。
我々は、生のピクセルデータをクラスタリングのための超格子配向の説明可能な数値表現に変換する。
この効率性により、ワークフローは大規模なデータセットにスケーラブルになり、データ駆動モデルを意思決定プロセスに統合するための貴重なツールになります。
論文 参考訳(メタデータ) (2025-01-07T22:51:10Z) - Automated Grain Boundary (GB) Segmentation and Microstructural Analysis
in 347H Stainless Steel Using Deep Learning and Multimodal Microscopy [2.0445155106382797]
オーステナイト347Hステンレス鋼は、極端な運転条件に要求される優れた機械的特性と耐食性を提供する。
CNNベースのディープラーニングモデルは、材料マイクログラフから機能を自動で検出する強力な技術である。
走査型電子顕微鏡(SEM)による347Hステンレス鋼のトレーニングデータと電子後方散乱(EBSD)マイクログラフを,粒界検出のためのピクセルワイドラベルとして組み合わせた。
論文 参考訳(メタデータ) (2023-05-12T22:49:36Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Interpretable Joint Event-Particle Reconstruction for Neutrino Physics
at NOvA with Sparse CNNs and Transformers [124.29621071934693]
本稿では,畳み込みによって実現される空間学習と,注意によって実現される文脈学習を組み合わせた新しいニューラルネットワークアーキテクチャを提案する。
TransformerCVNは各事象を同時に分類し、各粒子のアイデンティティを再構築する。
このアーキテクチャにより、ネットワークの予測に関する洞察を提供する、いくつかの解釈可能性の研究を行うことができる。
論文 参考訳(メタデータ) (2023-03-10T20:36:23Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - A kinetic approach to consensus-based segmentation of biomedical images [39.58317527488534]
バイオメディカルセグメンテーション問題に有界信頼度コンセンサスモデルの運動バージョンを適用した。
システムの長時間の挙動は、代理のフォッカー・プランク法(英語版)の助けを借りて計算される。
2次元グレースケール画像の関連集合に対して導入されたセグメンテーション距離を最小化する。
論文 参考訳(メタデータ) (2022-11-08T09:54:34Z) - The Preliminary Results on Analysis of TAIGA-IACT Images Using
Convolutional Neural Networks [68.8204255655161]
本研究の目的は,AIGA-IACTに設定された課題を解決するための機械学習アプリケーションの可能性を検討することである。
The method of Convolutional Neural Networks (CNN) was applied to process and analysis Monte-Carlo eventssimulated with CORSIKA。
論文 参考訳(メタデータ) (2021-12-19T15:17:20Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Improving the Segmentation of Scanning Probe Microscope Images using
Convolutional Neural Networks [0.9236074230806579]
有機溶媒からの沈着によりシリコン表面に生成した金ナノ粒子の2次元集合体像の分画プロトコルを開発した。
溶媒の蒸発は粒子の極端に平衡な自己組織化を駆動し、様々なナノパターンや微細構造パターンを生み出す。
U-Net畳み込みニューラルネットワークを用いたセグメンテーション戦略が従来の自動アプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-08-27T20:49:59Z) - Machine Learning Pipeline for Segmentation and Defect Identification
from High Resolution Transmission Electron Microscopy Data [0.0]
我々は高分解能電子顕微鏡データ解析のための柔軟な2ステップパイプラインを実証した。
トレーニングしたU-Netは、Dice係数0.8の非晶質背景からナノ粒子を分離することができる。
すると、ナノ粒子が86%の精度で可視積層断層を含むかどうかを分類できる。
論文 参考訳(メタデータ) (2020-01-14T19:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。