論文の概要: VoxelEmbed: 3D Instance Segmentation and Tracking with Voxel Embedding
based Deep Learning
- arxiv url: http://arxiv.org/abs/2106.11480v1
- Date: Tue, 22 Jun 2021 02:03:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:45:27.809816
- Title: VoxelEmbed: 3D Instance Segmentation and Tracking with Voxel Embedding
based Deep Learning
- Title(参考訳): VoxelEmbed:Voxel Embeddingベースのディープラーニングによる3次元インスタンスセグメンテーションとトラッキング
- Authors: Mengyang Zhao, Quan Liu, Aadarsh Jha, Ruining Deng, Tianyuan Yao,
Anita Mahadevan-Jansen, Matthew J.Tyska, Bryan A. Millis, Yuankai Huo
- Abstract要約: 本稿では,3次元ボリュームビデオシーケンス上でのセルインスタンス分割と追跡を同時に行うための,空間時間ボクセル埋め込み(VoxelEmbed)に基づく学習手法を提案する。
I SBI Cell Tracking Challenge から,VoxelEmbed 法を4つの3次元データセット(細胞タイプが異なる)で評価した。
- 参考スコア(独自算出の注目度): 5.434831972326107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in bioimaging have provided scientists a superior high
spatial-temporal resolution to observe dynamics of living cells as 3D
volumetric videos. Unfortunately, the 3D biomedical video analysis is lagging,
impeded by resource insensitive human curation using off-the-shelf 3D analytic
tools. Herein, biologists often need to discard a considerable amount of rich
3D spatial information by compromising on 2D analysis via maximum intensity
projection. Recently, pixel embedding-based cell instance segmentation and
tracking provided a neat and generalizable computing paradigm for understanding
cellular dynamics. In this work, we propose a novel spatial-temporal
voxel-embedding (VoxelEmbed) based learning method to perform simultaneous cell
instance segmenting and tracking on 3D volumetric video sequences. Our
contribution is in four-fold: (1) The proposed voxel embedding generalizes the
pixel embedding with 3D context information; (2) Present a simple multi-stream
learning approach that allows effective spatial-temporal embedding; (3)
Accomplished an end-to-end framework for one-stage 3D cell instance
segmentation and tracking without heavy parameter tuning; (4) The proposed 3D
quantification is memory efficient via a single GPU with 12 GB memory. We
evaluate our VoxelEmbed method on four 3D datasets (with different cell types)
from the ISBI Cell Tracking Challenge. The proposed VoxelEmbed method achieved
consistent superior overall performance (OP) on two densely annotated datasets.
The performance is also competitive on two sparsely annotated cohorts with
20.6% and 2% of data-set having segmentation annotations. The results
demonstrate that the VoxelEmbed method is a generalizable and memory-efficient
solution.
- Abstract(参考訳): バイオイメージングの最近の進歩により、科学者は3dボリュームビデオとして生きた細胞の動態を観察できる優れた空間-時間分解能を提供している。
残念なことに、3dバイオメディカルビデオ分析は、市販の3d分析ツールを使って、リソースに敏感な人間のキュレーションを妨げている。
ここで、生物学者は最大強度投影による2次元解析に妥協することで、かなりの量のリッチな3d空間情報を捨てる必要がある。
近年,画素埋め込みによるセルインスタンスのセグメンテーションとトラッキングは,セルダイナミクスを理解するための,適切かつ一般化可能な計算パラダイムを提供する。
本研究では,3次元ビデオシーケンス上で同時セルインスタンス分割と追跡を行うための空間時間ボクセル埋め込み(VoxelEmbed)に基づく学習手法を提案する。
提案するボクセル埋め込みは3次元コンテキスト情報で画素埋め込みを一般化する; (2) 効果的な時空間埋め込みを可能にする単純なマルチストリーム学習手法を示す; (3) 1段階の3Dセルインスタンスのセグメンテーションと重パラメータチューニングなしでの追跡のためのエンドツーエンドフレームワークを補完する; (4) 提案した3D定量化は12GBメモリを持つ1つのGPUによるメモリ効率が高い。
我々は,ISBI Cell Tracking Challengeの4つの3次元データセット(細胞の種類が異なる)に対してVoxelEmbed法を評価した。
提案したVoxelEmbed法は、2つの高密度注釈付きデータセット上で一貫した総合性能(OP)を達成した。
この性能は、セグメンテーションアノテーションを持つデータセットの20.6%と2%の少ない2つのコホートで競合する。
この結果は,VoxelEmbed法が一般化可能かつメモリ効率の良い解であることを示す。
関連論文リスト
- Label-Efficient 3D Brain Segmentation via Complementary 2D Diffusion Models with Orthogonal Views [10.944692719150071]
相補的な2次元拡散モデルを用いた新しい3次元脳分割法を提案する。
私たちのゴールは、個々の主題に対して完全なラベルを必要とせずに、信頼性の高いセグメンテーション品質を達成することです。
論文 参考訳(メタデータ) (2024-07-17T06:14:53Z) - Volumetric Environment Representation for Vision-Language Navigation [66.04379819772764]
視覚言語ナビゲーション(VLN)は、視覚的な観察と自然言語の指示に基づいて、エージェントが3D環境をナビゲートする必要がある。
本研究では,物理世界を3次元構造細胞にボクセル化するボリューム環境表現(VER)を提案する。
VERは3D占有率、3D部屋レイアウト、および3Dバウンディングボックスを共同で予測する。
論文 参考訳(メタデータ) (2024-03-21T06:14:46Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Large-Scale Multi-Hypotheses Cell Tracking Using Ultrametric Contours Maps [1.015920567871904]
本稿では,分割選択手法による大規模3次元細胞追跡手法について述べる。
本手法は,細胞追跡課題から得られた3次元画像の最先端化を実現する。
われわれのフレームワークは柔軟で、市販のセルセグメンテーションモデルからのセグメンテーションをサポートしている。
論文 参考訳(メタデータ) (2023-08-08T18:41:38Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - YOLO2U-Net: Detection-Guided 3D Instance Segmentation for Microscopy [0.0]
脳組織中の細胞の正確な3Dインスタンスセグメンテーションのための包括的手法を提案する。
提案手法は,2次元YOLO検出法と多視点融合アルゴリズムを組み合わせることで,細胞の3次元局在化を構築する。
提案手法の有望な性能を,現在の深層学習に基づく3次元インスタンス分割法と比較した。
論文 参考訳(メタデータ) (2022-07-13T14:17:52Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。