論文の概要: Bright 4B: Scaling Hyperspherical Learning for Segmentation in 3D Brightfield Microscopy
- arxiv url: http://arxiv.org/abs/2512.22423v1
- Date: Sat, 27 Dec 2025 01:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.045585
- Title: Bright 4B: Scaling Hyperspherical Learning for Segmentation in 3D Brightfield Microscopy
- Title(参考訳): ブライト4B:3次元ブライトフィールド顕微鏡におけるセグメンテーションのための超球面学習のスケーリング
- Authors: Amil Khan, Matheus Palhares Viana, Suraj Mishra, B. S. Manjunath,
- Abstract要約: Bright-4Bは、単位超球面上で学習し、3次元の光場体積から直接細胞内構造を分割する。
プラグアンドプレイ異方性パッチは、さらに共焦点点スプレッドと軸スライニングを尊重し、幾何学的に忠実な3Dトークン化を可能にする。
- 参考スコア(独自算出の注目度): 4.92865081644275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label-free 3D brightfield microscopy offers a fast and noninvasive way to visualize cellular morphology, yet robust volumetric segmentation still typically depends on fluorescence or heavy post-processing. We address this gap by introducing Bright-4B, a 4 billion parameter foundation model that learns on the unit hypersphere to segment subcellular structures directly from 3D brightfield volumes. Bright-4B combines a hardware-aligned Native Sparse Attention mechanism (capturing local, coarse, and selected global context), depth-width residual HyperConnections that stabilize representation flow, and a soft Mixture-of-Experts for adaptive capacity. A plug-and-play anisotropic patch embed further respects confocal point-spread and axial thinning, enabling geometry-faithful 3D tokenization. The resulting model produces morphology-accurate segmentations of nuclei, mitochondria, and other organelles from brightfield stacks alone--without fluorescence, auxiliary channels, or handcrafted post-processing. Across multiple confocal datasets, Bright-4B preserves fine structural detail across depth and cell types, outperforming contemporary CNN and Transformer baselines. All code, pretrained weights, and models for downstream finetuning will be released to advance large-scale, label-free 3D cell mapping.
- Abstract(参考訳): ラベルのない3D明視野顕微鏡は、細胞形態を高速かつ非侵襲的に可視化する方法を提供するが、堅牢な体積分割は、通常、蛍光や重い後処理に依存している。
Bright-4Bは、単位超球面上で学習し、3次元の光場体積から直接細胞内構造を分割する40億のパラメータ基礎モデルである。
Bright-4Bは、ハードウェア対応のNative Sparse Attentionメカニズム(ローカル、粗い、選択されたグローバルコンテキストをキャプチャする)、表現フローを安定化する深さ幅残留のHyperConnection、適応能力のためのソフトなMixture-of-Expertsを組み合わせている。
プラグアンドプレイ異方性パッチは、さらに共焦点点スプレッドと軸スライニングを尊重し、幾何学的に忠実な3Dトークン化を可能にする。
結果として得られたモデルは、蛍光、補助チャネル、または手作りのポストプロセッシングなしで、明るい場のスタックだけから、核、ミトコンドリア、その他のオルガネラの形態的正確なセグメンテーションを生成する。
複数の共焦点データセットにまたがって、Bright-4Bは、深さと細胞タイプにわたって微細な構造的詳細を保存し、現代のCNNやTransformerのベースラインを上回っている。
すべてのコード、事前訓練された重量、下流の微調整のためのモデルがリリースされ、大規模でラベルなしの3Dセルマッピングが進歩する。
関連論文リスト
- Radiance Meshes for Volumetric Reconstruction [56.51690637804858]
一定の密度の四面体を持つ放射場を表現する手法である放射メッシュを導入する。
本モデルでは,合成とレイトレーシングの両方を用いて,高精度かつ高速なボリュームレンダリングを行うことができる。
我々のレンダリング手法はボリューム方程式を正確に評価し、標準のコンシューマハードウェア上で高品質でリアルタイムなビューを可能にする。
論文 参考訳(メタデータ) (2025-12-03T18:57:03Z) - 3D-Guided Scalable Flow Matching for Generating Volumetric Tissue Spatial Transcriptomics from Serial Histology [0.9562447539143751]
HoloTeaは3D対応のフローマッチングフレームワークで、隣接部からの情報を明示的に使用しながら、H&Eからスポットレベルの遺伝子発現を誘導する。
グローバルアテンションブロックは、スライド内のスポット数と線形に3D H&Eスケーリングを導入し、大規模な3D STデータセットのトレーニングと推論を可能にする。
論文 参考訳(メタデータ) (2025-11-18T16:08:24Z) - trAIce3D: A Prompt-Driven Transformer Based U-Net for Semantic Segmentation of Microglial Cells from Large-Scale 3D Microscopy Images [39.58317527488534]
本稿では,精密マイクログリアセグメンテーションのためのディープラーニングアーキテクチャであるtrAIce3Dを紹介する。
まず、エンコーダ内の視覚変換器を備えた3D U-Netは、スライディングウインドウ技術を用いて、画像全体をカバーするソマを検出する。
次に、ソマ座標をプロンプトとして、ターゲットセルの周りの3Dウィンドウを入力として、ソマとその枝を洗練する。
TRAIce3Dは41,230マイクログリアセルのデータセットで訓練され、評価され、セグメンテーションの精度とスケーラブルな一般化を著しく改善する。
論文 参考訳(メタデータ) (2025-07-30T12:54:53Z) - From Fibers to Cells: Fourier-Based Registration Enables Virtual Cresyl Violet Staining From 3D Polarized Light Imaging [32.73124984242397]
脳の微細構造の様々な側面を包括的に評価するには、補完的なイメージング技術を用いる必要がある。
細胞構造解析における金の標準は、細胞体染色組織の光顕微鏡イメージングである。
画像間翻訳の深層学習手法を利用して,空間的に細胞レベルで整列した3D-PLIの仮想染色を生成する。
論文 参考訳(メタデータ) (2025-05-16T15:59:15Z) - Cross-Modal and Uncertainty-Aware Agglomeration for Open-Vocabulary 3D Scene Understanding [58.38294408121273]
CUA-O3Dと呼ばれるオープン語彙3次元シーン理解のためのクロスモーダル・不確実性認識アグリゲーションを提案する。
提案手法は,(1)空間認識型視覚基盤モデルの幾何学的知識とともに,VLMのセマンティックな先入観を取り入れること,(2)モデル固有の不確かさを捉えるために,新しい決定論的不確実性推定を用いること,の2つの課題に対処する。
論文 参考訳(メタデータ) (2025-03-20T20:58:48Z) - Towards Unified and Lossless Latent Space for 3D Molecular Latent Diffusion Modeling [90.23688195918432]
3次元分子生成は、薬物発見と物質科学に不可欠である。
既存のアプローチは、典型的には不変かつ同変なモジュラリティに対して別々のラテント空間を保持する。
我々は,3次元分子を潜在空間から潜在配列に圧縮するマルチモーダルVAEである textbfUAE-3D を提案する。
論文 参考訳(メタデータ) (2025-03-19T08:56:13Z) - 3D Mitochondria Instance Segmentation with Spatio-Temporal Transformers [101.44668514239959]
本稿では,空間的および時間的注意を並列に効率的に計算するハイブリッドエンコーダデコーダフレームワークを提案する。
また,ミトコンドリアインスタンスの領域を背景から支援する訓練中に,意味的クラッタ・バックグラウンドの逆行性障害も導入した。
論文 参考訳(メタデータ) (2023-03-21T17:58:49Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - VoxelEmbed: 3D Instance Segmentation and Tracking with Voxel Embedding
based Deep Learning [5.434831972326107]
本稿では,3次元ボリュームビデオシーケンス上でのセルインスタンス分割と追跡を同時に行うための,空間時間ボクセル埋め込み(VoxelEmbed)に基づく学習手法を提案する。
I SBI Cell Tracking Challenge から,VoxelEmbed 法を4つの3次元データセット(細胞タイプが異なる)で評価した。
論文 参考訳(メタデータ) (2021-06-22T02:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。