論文の概要: BioLite U-Net: Edge-Deployable Semantic Segmentation for In Situ Bioprinting Monitoring
- arxiv url: http://arxiv.org/abs/2509.06690v1
- Date: Mon, 08 Sep 2025 13:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.169147
- Title: BioLite U-Net: Edge-Deployable Semantic Segmentation for In Situ Bioprinting Monitoring
- Title(参考訳): BioLite U-Net: in situ Bioprinting Monitoringのためのエッジ展開可能なセマンティックセマンティックセグメンテーション
- Authors: Usman Haider, Lukasz Szemet, Daniel Kelly, Vasileios Sergis, Andrew C. Daly, Karl Mason,
- Abstract要約: リアルタイムバイオプリンティングに適した,軽量なセマンティックセマンティックセマンティクスフレームワークを提案する。
バイオプリンティングの過程で得られた787枚のRGB画像からなる新しいデータセットを,ノズル,バイオリンク,背景の3つのクラスにラベル付けした。
提案手法は,平均的インターセクションオーバーユニオン(mIoU),Diceスコア,画素精度を用いて,MobileNetV2およびMobileNetV3ベースのセグメンテーションベースラインに対してベンチマークを行った。
- 参考スコア(独自算出の注目度): 1.2006896500048554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bioprinting is a rapidly advancing field that offers a transformative approach to fabricating tissue and organ models through the precise deposition of cell-laden bioinks. Ensuring the fidelity and consistency of printed structures in real-time remains a core challenge, particularly under constraints imposed by limited imaging data and resource-constrained embedded hardware. Semantic segmentation of the extrusion process, differentiating between nozzle, extruded bioink, and surrounding background, enables in situ monitoring critical to maintaining print quality and biological viability. In this work, we introduce a lightweight semantic segmentation framework tailored for real-time bioprinting applications. We present a novel, manually annotated dataset comprising 787 RGB images captured during the bioprinting process, labeled across three classes: nozzle, bioink, and background. To achieve fast and efficient inference suitable for integration with bioprinting systems, we propose a BioLite U-Net architecture that leverages depthwise separable convolutions to drastically reduce computational load without compromising accuracy. Our model is benchmarked against MobileNetV2 and MobileNetV3-based segmentation baselines using mean Intersection over Union (mIoU), Dice score, and pixel accuracy. All models were evaluated on a Raspberry Pi 4B to assess real-world feasibility. The proposed BioLite U-Net achieves an mIoU of 92.85% and a Dice score of 96.17%, while being over 1300x smaller than MobileNetV2-DeepLabV3+. On-device inference takes 335 ms per frame, demonstrating near real-time capability. Compared to MobileNet baselines, BioLite U-Net offers a superior tradeoff between segmentation accuracy, efficiency, and deployability, making it highly suitable for intelligent, closed-loop bioprinting systems.
- Abstract(参考訳): バイオプリンティングは急速に進歩する分野であり、細胞を積層したバイオインクの正確な沈着によって組織や臓器のモデルを作るための変換的アプローチを提供する。
特に、限られた画像データとリソース制約の組込みハードウェアによって課せられる制約の下では、リアルタイムでプリントされた構造の忠実さと整合性を確保することが重要な課題である。
押出工程のセマンティックセグメンテーションは、ノズル、押出バイオリンク、および周囲の背景を区別し、印刷品質と生物学的生存性を維持するために重要なin situモニタリングを可能にする。
本研究では,リアルタイムバイオプリンティングに適した軽量なセマンティックセグメンテーションフレームワークを提案する。
バイオプリンティングの過程で得られた787枚のRGB画像を,ノズル,バイオリンク,背景の3つのクラスにラベル付けし,手動で注釈付けした新しいデータセットを提案する。
バイオプリンティングシステムとの統合に適した高速かつ効率的な推論を実現するために,深層的に分離可能な畳み込みを利用したバイオライトU-Netアーキテクチャを提案する。
提案手法は,平均的インターセクションオーバーユニオン(mIoU),Diceスコア,画素精度を用いて,MobileNetV2およびMobileNetV3ベースのセグメンテーションベースラインに対してベンチマークを行った。
すべてのモデルをRaspberry Pi 4Bで評価し、現実の実現可能性を評価した。
提案されたBioLite U-Netは92.85%のmIoUと96.17%のDiceスコアを獲得し、MobileNetV2-DeepLabV3+より1300倍以上小さい。
オンデバイス推論は1フレームあたり335ミリ秒で、ほぼリアルタイムで機能を示す。
MobileNetのベースラインと比較すると、BioLite U-Netはセグメンテーションの精度、効率、デプロイ性に優れたトレードオフを提供しており、インテリジェントでクローズドループのバイオプリンティングシステムに非常に適している。
関連論文リスト
- Hierarchical Sparse Attention Framework for Computationally Efficient Classification of Biological Cells [0.0]
SparseAttnNetは、効率的な画像分類のための新しい階層型アテンション駆動フレームワークである。
生体細胞画像の場合、SparseAttnNetは全画像の代わりに約15%のピクセルを処理可能であることを示す。
論文 参考訳(メタデータ) (2025-05-12T15:29:08Z) - Self-Supervised Z-Slice Augmentation for 3D Bio-Imaging via Knowledge Distillation [65.46249968484794]
ZAugNetは、生物画像のz分解能を高めるための高速で正確で自己教師型のディープラーニング手法である。
連続スライス間の非線形距離を実行することで、ZAugNetは各イテレーションで分解能を効果的に倍にする。
ZAugNet+は任意の距離で連続的な予測を可能にする拡張版である。
論文 参考訳(メタデータ) (2025-03-05T17:50:35Z) - ContextFormer: Redefining Efficiency in Semantic Segmentation [48.81126061219231]
畳み込み法は、局所的な依存関係をうまく捉えるが、長距離関係に苦慮する。
ビジョントランスフォーマー(ViT)は、グローバルなコンテキストキャプチャでは優れるが、高い計算要求によって妨げられる。
我々は,リアルタイムセマンティックセグメンテーションの効率,精度,堅牢性のバランスをとるために,CNN と ViT の強みを活用したハイブリッドフレームワーク ContextFormer を提案する。
論文 参考訳(メタデータ) (2025-01-31T16:11:04Z) - InstanSeg: an embedding-based instance segmentation algorithm optimized for accurate, efficient and portable cell segmentation [16.87379367939391]
InstanSegは、顕微鏡画像中の細胞と核を特定するために設計された、新しい埋め込みベースのインスタンスセグメンテーションパイプラインである。
InstanSegは最も広く使われている代替手法と比較して精度が大幅に向上することを示した。
我々はPythonでのInstanSegのオープンソース実装と、Javaで書かれた推論のためのユーザフレンドリでインタラクティブなQuPath拡張を提供しています。
論文 参考訳(メタデータ) (2024-08-28T17:14:21Z) - HeteroEdge: Addressing Asymmetry in Heterogeneous Collaborative
Autonomous Systems [1.274065448486689]
2台の無人地上車両(UGV)と2台のNVIDIA Jetsonデバイスからなるテストベッドの自己適応最適化フレームワークを提案する。
このフレームワークは、異種ノード上の複数のタスク(ストレージ、処理、計算、送信、推論)を同時に効率的に管理する。
入力された画像フレームの圧縮とマスキング、類似したフレームの識別、および最適化のための境界条件を得るためにプロファイリング装置を含む。
論文 参考訳(メタデータ) (2023-05-05T02:43:16Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z) - SPViT: Enabling Faster Vision Transformers via Soft Token Pruning [38.10083471492964]
ハードウェア効率の伝統的なモデル圧縮パラダイムであるPruningは、様々なDNN構造に広く応用されている。
平板およびCNN型構造のバニラ変圧器に設定できる計算対応ソフトプルーニングフレームワークを提案する。
我々のフレームワークは、画像分類に匹敵する性能を維持しながら、ViTの計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2021-12-27T20:15:25Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Real-time Semantic Segmentation via Spatial-detail Guided Context
Propagation [49.70144583431999]
本研究では,リアルタイムセマンティックセグメンテーションを実現するための空間詳細ガイド付きコンテキスト伝搬ネットワーク(SGCPNet)を提案する。
浅い層の空間的詳細を利用して低解像度のグローバルコンテキストの伝播を誘導し、失われた空間情報を効果的に再構成することができる。
69.5%のmIoUセグメンテーション精度を実現し、GeForce GTX 1080 Tiの768x1536イメージ上で178.5 FPSに達する。
論文 参考訳(メタデータ) (2020-05-22T07:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。