論文の概要: Segment Anything Model for Zero-shot Single Particle Tracking in Liquid Phase Transmission Electron Microscopy
- arxiv url: http://arxiv.org/abs/2501.03153v1
- Date: Mon, 06 Jan 2025 17:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:06:08.128132
- Title: Segment Anything Model for Zero-shot Single Particle Tracking in Liquid Phase Transmission Electron Microscopy
- Title(参考訳): 液相透過電子顕微鏡におけるゼロショット単粒子追跡のセグメンテーションモデル
- Authors: Risha Goel, Zain Shabeeb, Isabel Panicker, Vida Jamali,
- Abstract要約: 液相透過電子顕微鏡はナノスケールでの単一粒子追跡に有望なツールである。
ノイズの多いLPTEMビデオにおけるナノ粒子の同定と追跡のための標準化された枠組みが欠如していることは、この分野の進歩を妨げている。
本稿では,素早い映像分割と粒子追跡,統計解析を統合した包括的フレームワークSAM4EMを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Liquid phase transmission electron microscopy (LPTEM) offers an unparalleled combination of spatial and temporal resolution, making it a promising tool for single particle tracking at the nanoscale. However, the absence of a standardized framework for identifying and tracking nanoparticles in noisy LPTEM videos has impeded progress in the field to develop this technique as a single particle tracking tool. To address this, we leveraged Segment Anything Model 2 (SAM 2), released by Meta, which is a foundation model developed for segmenting videos and images. Here, we demonstrate that SAM 2 can successfully segment LPTEM videos in a zero-shot manner and without requiring fine-tuning. Building on this capability, we introduce SAM4EM, a comprehensive framework that integrates promptable video segmentation with particle tracking and statistical analysis, providing an end-to-end LPTEM analysis framework for single particle tracking. SAM4EM achieves nearly 50-fold higher accuracy in segmenting and analyzing LPTEM videos compared to state-of-the-art methods, paving the way for broader applications of LPTEM in nanoscale imaging.
- Abstract(参考訳): 液体相透過電子顕微鏡(LPTEM)は、空間分解能と時間分解能の非並列的な組み合わせを提供し、ナノスケールでの単一粒子追跡に有望なツールである。
しかし、ノイズの多いLPTEMビデオにおけるナノ粒子の同定と追跡のための標準フレームワークが欠如していることは、この技術が単一粒子追跡ツールとして開発されるのを妨げている。
そこで我々はMetaがリリースしたSeegment Anything Model 2 (SAM2) を利用して,ビデオや画像のセグメンテーションのための基礎モデルを構築した。
そこで, SAM 2 は, 微調整を必要とせず, ゼロショット方式でLPTEM ビデオを分割できることを実証した。
SAM4EMは,高速な映像セグメント化と粒子追跡と統計解析を統合した総合的なフレームワークであり,単一粒子追跡のためのエンドツーエンドのLPTEM分析フレームワークを提供する。
SAM4EMは、最先端の手法と比較して、LPTEMビデオのセグメント化と解析において、ほぼ50倍の精度を実現し、ナノスケールイメージングにおけるLPTEMの幅広い応用の道を開いた。
関連論文リスト
- A versatile machine learning workflow for high-throughput analysis of supported metal catalyst particles [0.0]
ナノ粒子分析のための2段階人工知能(AI)駆動ワークフローを提案する。
この手法は、不均一触媒の透過電子顕微鏡(TEM)および走査TEM(STEM)画像に適用された。
NPの検出およびセグメント化におけるモデルの性能を各種触媒系で検証した。
論文 参考訳(メタデータ) (2024-10-02T03:50:01Z) - FusionSAM: Latent Space driven Segment Anything Model for Multimodal Fusion and Segmentation [37.74045675588487]
SAMをマルチモーダル画像セグメンテーションに初めて導入する。
本稿では、SAMのマルチモーダル融合とセグメンテーション機能を強化するために、LSTG(Latent Space Token Generation)とFMP(Fusion Mask Prompting)モジュールを組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-26T02:20:55Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Recursive Detection and Analysis of Nanoparticles in Scanning Electron
Microscopy Images [0.0]
本研究では,走査型電子顕微鏡(SEM)画像中のナノ粒子の精密検出と包括的解析を目的とした計算フレームワークを提案する。
このフレームワークはPythonの堅牢な画像処理機能を採用しており、特にOpenCV、SciPy、Scikit-Imageといったライブラリを利用している。
SEMナノ粒子のデータセットから得られた5つの異なるテスト画像から粒子を検出する精度は97%だ。
論文 参考訳(メタデータ) (2023-08-17T02:08:05Z) - Segment and Track Anything [57.20918630166862]
本報告ではSegment And Track Anything(SAMTrack)というフレームワークについて述べる。
SAM-Trackを使えば、ビデオ内の任意のオブジェクトを正確かつ効果的にセグメンテーションし、追跡することができる。
ドローン技術、自動運転、医療画像、拡張現実、生物学的分析など、さまざまな分野に応用することができる。
論文 参考訳(メタデータ) (2023-05-11T04:33:08Z) - Co-attention Propagation Network for Zero-Shot Video Object Segmentation [91.71692262860323]
ゼロショットオブジェクトセグメンテーション(ZS-VOS)は、これらのオブジェクトを事前に知ることなく、ビデオシーケンス内のオブジェクトをセグメンテーションすることを目的としている。
既存のZS-VOSメソッドは、しばしば前景と背景を区別したり、複雑なシナリオで前景を追跡するのに苦労する。
本稿では,オブジェクトの追跡とセグメンテーションが可能なエンコーダデコーダに基づく階層的コアテンション伝搬ネットワーク(HCPN)を提案する。
論文 参考訳(メタデータ) (2023-04-08T04:45:48Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - A Deep Learning Based Automatic Defect Analysis Framework for In-situ
TEM Ion Irradiations [0.0]
YOLOと呼ばれる高度な物体検出モデルに基づく微細構造特徴の自動TEMビデオ解析システムを開発した。
結果は、高速で一貫性があり、スケーラブルなフレームレベルの欠陥解析のために、F1スコアの0.89で人間に匹敵する性能を達成できることを示している。
論文 参考訳(メタデータ) (2021-08-19T19:15:44Z) - Improving the Segmentation of Scanning Probe Microscope Images using
Convolutional Neural Networks [0.9236074230806579]
有機溶媒からの沈着によりシリコン表面に生成した金ナノ粒子の2次元集合体像の分画プロトコルを開発した。
溶媒の蒸発は粒子の極端に平衡な自己組織化を駆動し、様々なナノパターンや微細構造パターンを生み出す。
U-Net畳み込みニューラルネットワークを用いたセグメンテーション戦略が従来の自動アプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-08-27T20:49:59Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。