論文の概要: Combining Microscopy Data and Metadata for Reconstruction of Cellular Traction Forces Using a Hybrid Vision Transformer-U-Net
- arxiv url: http://arxiv.org/abs/2603.13400v1
- Date: Wed, 11 Mar 2026 20:20:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.16572
- Title: Combining Microscopy Data and Metadata for Reconstruction of Cellular Traction Forces Using a Hybrid Vision Transformer-U-Net
- Title(参考訳): ハイブリッドビジョントランス-U-Netを用いた細胞間力再構成のための顕微鏡データとメタデータの組み合わせ
- Authors: Yunfei Huang, Elena Van der Vorst, Alexander Richard, Benedikt Sabass,
- Abstract要約: 視覚変換器とU-Netを統合した,堅牢なディープラーニングアーキテクチャであるViT+UNetを提案する。
このハイブリッドモデルは,トラクション力場を予測するために,スタンドアロンのU-NetアーキテクチャとVision Transformerアーキテクチャの両方より優れていることを示す。
- 参考スコア(独自算出の注目度): 47.519497962086746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traction force microscopy (TFM) is a widely used technique for quantifying the forces that cells exert on their surrounding extracellular matrix. Although deep learning methods have recently been applied to TFM data analysis, several challenges remain-particularly achieving reliable inference across multiple spatial scales and integrating additional contextual information such as cell type to improve accuracy. In this study, we propose ViT+UNet, a robust deep learning architecture that integrates a U-Net with a Vision Transformer. Our results demonstrate that this hybrid model outperforms both standalone U-Net and Vision Transformer architectures in predicting traction force fields. Furthermore, ViT+UNet exhibits superior generalization across diverse spatial scales and varying noise levels, enabling its application to TFM datasets obtained from different experimental setups and imaging systems. By appropriately structuring the input data, our approach also allows the inclusion of metadata, in our case cell-type information, to enhance prediction specificity and accuracy.
- Abstract(参考訳): トラクションフォース顕微鏡(TFM)は、細胞が周囲の細胞外マトリックスに作用する力を定量化する手法である。
近年、深層学習法がTFMデータ解析に応用されているが、複数の空間スケールにわたって信頼性の高い推論を実現し、精度を向上させるためにセルタイプなどの追加のコンテキスト情報を統合するなど、いくつかの課題が残されている。
本研究では,視覚変換器とU-Netを統合した堅牢なディープラーニングアーキテクチャであるViT+UNetを提案する。
このハイブリッドモデルは,トラクション力場を予測するために,スタンドアロンのU-NetアーキテクチャとVision Transformerアーキテクチャの両方より優れていることを示す。
さらに、VT+UNetは、様々な空間スケールと様々なノイズレベルにまたがる優れた一般化を示し、異なる実験装置とイメージングシステムから得られたFMデータセットに適用することができる。
入力データを適切に構造化することにより、我々の場合のセル型情報にメタデータを組み込むことで、予測特異性と精度を向上させることができる。
関連論文リスト
- PerFormer: A Permutation Based Vision Transformer for Remaining Useful Life Prediction [0.0]
本稿では,多変量時系列データをパーミュレートするパーフォーメーション・ベース・ビジョン・トランスフォーマー手法PerFormerを紹介する。
NASAのC-MAPSSデータセットに関する実験は、PerFormerのRUL予測における優れた性能を実証している。
論文 参考訳(メタデータ) (2025-05-30T21:49:10Z) - Spectral-Enhanced Transformers: Leveraging Large-Scale Pretrained Models for Hyperspectral Object Tracking [35.34526230299484]
本稿では,超スペクトル物体追跡のためのトランスフォーマーベース基礎モデルに適応する効果的な手法を提案する。
本稿では,任意の変圧器ベースのバックボーンに拡張可能な適応型,学習可能な空間分光トークン融合モジュールを提案する。
論文 参考訳(メタデータ) (2025-02-26T01:46:21Z) - Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Vision Transformers for Dense Prediction [77.34726150561087]
高密度予測タスクのバックボーンとして、畳み込みネットワークの代わりにビジョントランスを活用するアーキテクチャである高密度ビジョントランスを紹介します。
実験により,このアーキテクチャは高密度予測タスクにおいて大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-24T18:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。