論文の概要: TubuleTracker: a high-fidelity shareware software to quantify angiogenesis architecture and maturity
- arxiv url: http://arxiv.org/abs/2507.02024v1
- Date: Wed, 02 Jul 2025 15:46:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:14.990482
- Title: TubuleTracker: a high-fidelity shareware software to quantify angiogenesis architecture and maturity
- Title(参考訳): TubuleTracker:血管新生のアーキテクチャと成熟度を定量化する高忠実な共有ソフトウェア
- Authors: Danish Mahmood, Stephanie Buczkowski, Sahaj Shah, Autumn Anthony, Rohini Desetty, Carlo R Bartoli,
- Abstract要約: tubuleTrackerは、内皮ネットワークアーキテクチャと成熟度を迅速かつ客観的に定量化するソフトウェアツールである。
細胞ネットワークのヒストマイクログラフィー画像は、しばしば手動で解析される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: In vitro endothelial cell culture is widely used to study angiogenesis. Histomicrographic images of cell networks are often analyzed manually, a process that is time-consuming and subjective. Automated tools like ImageJ (NIH) can assist, but are often slow and inaccurate. Additionally, as endothelial networks grow more complex, traditional architectural metrics may not fully reflect network maturity. To address these limitations, we developed tubuleTracker, a software tool that quantifies endothelial network architecture and maturity rapidly and objectively. Methods: Human umbilical vein endothelial cells were cultured in an extracellular matrix, and 54 images were acquired using phase contrast microscopy. Each image was analyzed manually by three independent reviewers, and by both ImageJ and tubuleTracker. Key metrics included tubule count, total length, node count, tubule area, and vessel circularity. In parallel, trained scientists rated each image for angiogenesis maturity on a 1-5 scale (1 = most mature). Results: Analysis time per image differed significantly: manual (8 min), ImageJ (58+/-4 s), and tubuleTracker (6+/-2 s) (p<0.0001). Significant differences were also found in tubule count (manual 168+/-SD, tubuleTracker 92+/-SD, ImageJ 433+/-SD), length, and node count (all p<0.0001). tubuleTracker's metrics varied significantly across angiogenesis maturity scores, including tubule count, length, node count, area, and circularity (all p<0.0001). Conclusions: tubuleTracker was faster and more consistent than both manual and ImageJ-based analysis. Vessel circularity proved especially effective in capturing angiogenesis maturity. tubuleTracker is available as free shareware for the biomedical research community.
- Abstract(参考訳): 背景:in vitro内皮細胞培養は血管新生の研究に広く用いられている。
細胞ネットワークのヒストマイクログラフィー画像は、しばしば手動で解析される。
ImageJ(NIH)のような自動化ツールは、アシストできるが、しばしば遅く、不正確である。
さらに、内皮ネットワークが複雑化するにつれて、従来のアーキテクチャメトリクスはネットワークの成熟度を完全に反映しない可能性がある。
これらの制約に対処するため,内皮ネットワークアーキテクチャと成熟度を迅速かつ客観的に定量化するソフトウェアツールであるTuuleTrackerを開発した。
方法: 血管内皮細胞を細胞外マトリックスで培養し, 位相コントラスト顕微鏡を用いて54枚の画像を得た。
それぞれの画像は、3人の独立したレビュアーとImageJとTuuleTrackerによって手動で分析された。
主な指標は管数、総長さ、ノード数、管面積、血管循環である。
同時に、訓練された科学者は、各画像の血管新生の成熟度を1-5スケール(1=最も成熟度)で評価した。
結果: 画像毎の解析時間は, 手動 (8分), ImageJ (58分/4秒), tubuleTracker (6分/2秒) (p<0.0001。
また、管数(マニュアル168+/-SD、チューバTracker92+/-SD、ImageJ 433+/-SD)、長さ、ノード数(全てp<0.0001)にも大きな違いが認められた。
血管新生の成熟度は, 管数, 長さ, ノード数, 面積, 円度 (いずれもp<0.0001。
結論:TuuleTrackerは手動とイメージJベースの解析よりも高速で一貫性があった。
血管循環は血管新生の成熟を捉えるのに特に有効であった。
tubuleTrackerは、バイオメディカル研究コミュニティのための無料の共有ウェアとして利用できる。
関連論文リスト
- Automatic Tissue Differentiation in Parotidectomy using Hyperspectral Imaging [43.158227137013874]
この研究では、400-1000$ nmの範囲で超スペクトルデータを持つ3次元畳み込みニューラルネットワークを用いる。
取得システムはステレオHSIシステムを作成する2台のマルチスペクトルスナップショットカメラで構成された。
論文 参考訳(メタデータ) (2024-12-06T09:20:59Z) - Tracking one-in-a-million: Large-scale benchmark for microbial single-cell tracking with experiment-aware robustness metrics [0.0]
我々は、微生物ライブ細胞イメージング(MLCI)のための、最も公開かつ注釈付きデータセットを提示する。
このデータセットには、140万以上の細胞インスタンス、29万の細胞トラック、14万の細胞分裂が含まれている。
我々の新しいベンチマークは、実験パラメータが追跡品質に与える影響を定量化し、新しいデータ駆動手法を開発する機会を与える。
論文 参考訳(メタデータ) (2024-11-01T13:03:51Z) - Robust semi-automatic vessel tracing in the human retinal image by an
instance segmentation neural network [1.324564545341267]
ケースセグメンテーションニューラルネットワーク(InSegNN)による人間の眼底画像に対する頑健な半自動血管追跡アルゴリズムの新たなアプローチを提案する。
InSegNNは、異なる血管樹を個別に分離し、ラベル付けすることで、枝分かれ全体を通して各木をトレースすることができる。
底面画像から個々の血管木を抽出し,同時に血管階層情報を保持することを実証した。
論文 参考訳(メタデータ) (2024-02-15T16:25:28Z) - Cyto R-CNN and CytoNuke Dataset: Towards reliable whole-cell
segmentation in bright-field histological images [44.83069198478997]
我々は,セル全体を鮮視野画像に正確に分割できるネットワークアーキテクチャCyto R-CNNを提案する。
また,頭頸部扁平上皮癌細胞に対する数千の手動アノテーションからなる新しいデータセットCytoNukeも提示した。
論文 参考訳(メタデータ) (2024-01-28T12:22:34Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - Analysis of the performance of U-Net neural networks for the
segmentation of living cells [0.0]
この研究は、顕微鏡画像のセグメント化におけるディープラーニングの性能の研究を目標としている。
深層学習技術(主に畳み込みニューラルネットワーク)は細胞セグメンテーション問題に応用されている。
準リアルタイム画像解析が可能となり、6.20GBのデータを4分で処理した。
論文 参考訳(メタデータ) (2022-10-04T11:48:59Z) - Three-dimensional micro-structurally informed in silico myocardium --
towards virtual imaging trials in cardiac diffusion weighted MRI [58.484353709077034]
本稿では,心筋微細構造の数値ファントムを現実的に生成する新しい手法を提案する。
シリコン組織モデルにより、磁気共鳴イメージングの定量的モデルを評価することができる。
論文 参考訳(メタデータ) (2022-08-22T22:01:44Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Fully automated analysis of muscle architecture from B-mode ultrasound
images with deep learning [0.0]
我々は深部神経回路を訓練し,ラベル付き筋骨格超音波画像を用いて筋線維とアポニューロオースを検出する。
手動解析と2つの既存の半自動解析手法を用いて得られた画像と比較した。
本手法は完全に自動化され,オープンソースであり,単一画像やビデオから筋長,陰茎角,筋厚を推定できる。
論文 参考訳(メタデータ) (2020-09-10T11:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。