論文の概要: SAM-EM: Real-Time Segmentation for Automated Liquid Phase Transmission Electron Microscopy
- arxiv url: http://arxiv.org/abs/2501.03153v2
- Date: Tue, 04 Nov 2025 19:36:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 16:07:39.30114
- Title: SAM-EM: Real-Time Segmentation for Automated Liquid Phase Transmission Electron Microscopy
- Title(参考訳): SAM-EM:自動液相透過電子顕微鏡のためのリアルタイムセグメンテーション
- Authors: Alexander Wang, Max Xu, Risha Goel, Zain Shabeeb, Isabel Panicker, Vida Jamali,
- Abstract要約: 電子顕微鏡(SAM-EM)におけるセグメンテーションモデルについて
SAM-EMは、LPTEMデータのセグメンテーション、追跡、統計分析を統一するドメイン適応基盤モデルである。
Segment Anything Model 2 (SAM2) 上に構築されたSAM-EMは、46,600個のLPTEM合成ビデオフレームのフルモデル微調整によって製造される。
- 参考スコア(独自算出の注目度): 37.81867450552998
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The absence of robust segmentation frameworks for noisy liquid phase transmission electron microscopy (LPTEM) videos prevents reliable extraction of particle trajectories, creating a major barrier to quantitative analysis and to connecting observed dynamics with materials characterization and design. To address this challenge, we present Segment Anything Model for Electron Microscopy (SAM-EM), a domain-adapted foundation model that unifies segmentation, tracking, and statistical analysis for LPTEM data. Built on Segment Anything Model 2 (SAM~2), SAM-EM is derived through full-model fine-tuning on 46,600 curated LPTEM synthetic video frames, substantially improving mask quality and temporal identity stability compared to zero-shot SAM~2 and existing baselines. Beyond segmentation, SAM-EM integrates particle tracking with statistical tools, including mean-squared displacement and particle displacement distribution analysis, providing an end-to-end framework for extracting and interpreting nanoscale dynamics. Crucially, full fine-tuning allows SAM-EM to remain robust under low signal-to-noise conditions, such as those caused by increased liquid sample thickness in LPTEM experiments. By establishing a reliable analysis pipeline, SAM-EM transforms LPTEM into a quantitative single-particle tracking platform and accelerates its integration into data-driven materials discovery and design. Project page: \href{https://github.com/JamaliLab/SAM-EM}{github.com/JamaliLab/SAM-EM}.
- Abstract(参考訳): ノイズのある液体相透過電子顕微鏡(LPTEM)ビデオのためのロバストなセグメンテーションフレームワークが存在しないことは、粒子軌道の信頼できる抽出を防ぎ、定量分析や観察されたダイナミクスと材料特性と設計を結びつける大きな障壁となる。
この課題に対処するために、我々は、LPTEMデータのセグメンテーション、追跡、統計解析を統一するドメイン適応基盤モデルであるSAM-EM(Segment Anything Model for Electron Microscopy)を提案する。
Segment Anything Model 2 (SAM~2) 上に構築されたSAM-EMは、46,600個のキュレートされたLPTEM合成ビデオフレームのフルモデル微調整により、ゼロショットSAM~2や既存のベースラインに比べてマスク品質と時間的アイデンティティ安定性を大幅に改善する。
セグメンテーションの他に、SAM-EMは粒子追跡と平均二乗変位や粒子変位分布解析などの統計ツールを統合し、ナノスケールダイナミクスの抽出と解釈のためのエンドツーエンドのフレームワークを提供する。
重要なことに、完全な微調整により、SAM-EMはLPTEM実験において液体試料の厚さの増加によって引き起こされるような、低信号-雑音条件下で頑健な状態を保つことができる。
信頼性の高い分析パイプラインを確立することにより、SAM-EMはLPTEMを定量的な単一粒子追跡プラットフォームに変換し、データ駆動型材料発見と設計への統合を加速する。
プロジェクトページ: \href{https://github.com/JamaliLab/SAM-EM}{github.com/JamaliLab/SAM-EM}
関連論文リスト
- Zero-shot Shape Classification of Nanoparticles in SEM Images using Vision Foundation Models [0.9466841964978984]
形状分類のための従来のディープラーニング手法は、広範囲なラベル付きデータセットと計算的な訓練を必要とする。
本研究では,2つの視覚基盤モデルを利用したゼロショット分類パイプラインを提案する。
我々は3つの形態学的に多様なナノ粒子データセットにまたがる高精度な形状分類を実現する。
論文 参考訳(メタデータ) (2025-08-05T09:03:56Z) - DINOv2-powered Few-Shot Semantic Segmentation: A Unified Framework via Cross-Model Distillation and 4D Correlation Mining [30.564216896513596]
セマンティックセグメンテーションは、その一般化能力によって関心が高まっている。
近年,表現の伝達性向上のための基礎モデルが提案されている。
DINOv2エンコーダと軽量セグメンタのみを備えたFS-DINOを提案する。
論文 参考訳(メタデータ) (2025-04-22T07:47:06Z) - CRISP: A Framework for Cryo-EM Image Segmentation and Processing with Conditional Random Field [0.0]
本稿では,Cryo-EMデータから高品質なセグメンテーションマップを自動生成するパイプラインを提案する。
我々のモジュラーフレームワークは、様々なセグメンテーションモデルと損失関数の選択を可能にする。
限られたマイクログラフでトレーニングすると、合成データ上で90%以上の精度、リコール、精度、インターセクション・オーバー・ユニオン(IoU)、F1スコアを達成することができる。
論文 参考訳(メタデータ) (2025-02-12T10:44:45Z) - A versatile machine learning workflow for high-throughput analysis of supported metal catalyst particles [0.0]
ナノ粒子分析のための2段階人工知能(AI)駆動ワークフローを提案する。
この手法は、不均一触媒の透過電子顕微鏡(TEM)および走査TEM(STEM)画像に適用された。
NPの検出およびセグメント化におけるモデルの性能を各種触媒系で検証した。
論文 参考訳(メタデータ) (2024-10-02T03:50:01Z) - FusionSAM: Latent Space driven Segment Anything Model for Multimodal Fusion and Segmentation [37.74045675588487]
SAMをマルチモーダル画像セグメンテーションに初めて導入する。
本稿では、SAMのマルチモーダル融合とセグメンテーション機能を強化するために、LSTG(Latent Space Token Generation)とFMP(Fusion Mask Prompting)モジュールを組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-26T02:20:55Z) - DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - TrackDiffusion: Tracklet-Conditioned Video Generation via Diffusion Models [75.20168902300166]
微粒な軌跡条件の運動制御が可能な新しい映像生成フレームワークであるTrackDiffusionを提案する。
TrackDiffusionの重要なコンポーネントは、複数のオブジェクトのフレーム間の一貫性を明確に保証するインスタンスエンハンサーである。
TrackDiffusionによって生成されたビデオシーケンスは、視覚知覚モデルのトレーニングデータとして使用できる。
論文 参考訳(メタデータ) (2023-12-01T15:24:38Z) - Recursive Detection and Analysis of Nanoparticles in Scanning Electron
Microscopy Images [0.0]
本研究では,走査型電子顕微鏡(SEM)画像中のナノ粒子の精密検出と包括的解析を目的とした計算フレームワークを提案する。
このフレームワークはPythonの堅牢な画像処理機能を採用しており、特にOpenCV、SciPy、Scikit-Imageといったライブラリを利用している。
SEMナノ粒子のデータセットから得られた5つの異なるテスト画像から粒子を検出する精度は97%だ。
論文 参考訳(メタデータ) (2023-08-17T02:08:05Z) - Segment and Track Anything [57.20918630166862]
本報告ではSegment And Track Anything(SAMTrack)というフレームワークについて述べる。
SAM-Trackを使えば、ビデオ内の任意のオブジェクトを正確かつ効果的にセグメンテーションし、追跡することができる。
ドローン技術、自動運転、医療画像、拡張現実、生物学的分析など、さまざまな分野に応用することができる。
論文 参考訳(メタデータ) (2023-05-11T04:33:08Z) - Co-attention Propagation Network for Zero-Shot Video Object Segmentation [91.71692262860323]
ゼロショットオブジェクトセグメンテーション(ZS-VOS)は、これらのオブジェクトを事前に知ることなく、ビデオシーケンス内のオブジェクトをセグメンテーションすることを目的としている。
既存のZS-VOSメソッドは、しばしば前景と背景を区別したり、複雑なシナリオで前景を追跡するのに苦労する。
本稿では,オブジェクトの追跡とセグメンテーションが可能なエンコーダデコーダに基づく階層的コアテンション伝搬ネットワーク(HCPN)を提案する。
論文 参考訳(メタデータ) (2023-04-08T04:45:48Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - A Deep Learning Based Automatic Defect Analysis Framework for In-situ
TEM Ion Irradiations [0.0]
YOLOと呼ばれる高度な物体検出モデルに基づく微細構造特徴の自動TEMビデオ解析システムを開発した。
結果は、高速で一貫性があり、スケーラブルなフレームレベルの欠陥解析のために、F1スコアの0.89で人間に匹敵する性能を達成できることを示している。
論文 参考訳(メタデータ) (2021-08-19T19:15:44Z) - Improving the Segmentation of Scanning Probe Microscope Images using
Convolutional Neural Networks [0.9236074230806579]
有機溶媒からの沈着によりシリコン表面に生成した金ナノ粒子の2次元集合体像の分画プロトコルを開発した。
溶媒の蒸発は粒子の極端に平衡な自己組織化を駆動し、様々なナノパターンや微細構造パターンを生み出す。
U-Net畳み込みニューラルネットワークを用いたセグメンテーション戦略が従来の自動アプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-08-27T20:49:59Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。