論文の概要: The Projection-Enhancement Network (PEN)
- arxiv url: http://arxiv.org/abs/2301.10877v1
- Date: Thu, 26 Jan 2023 00:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 14:47:25.022118
- Title: The Projection-Enhancement Network (PEN)
- Title(参考訳): プロジェクション・エンハンスメント・ネットワーク(PEN)
- Authors: Christopher Z. Eddy, Austin Naylor, Bo Sun
- Abstract要約: サブサンプリングされた3Dデータを処理し、2次元RGBセマンティック圧縮を生成する新しい畳み込みモジュールを提案する。
PENでは、CellPoseで学習した意味表現が深さを符号化し、セグメンテーション性能を大幅に向上することを示す。
我々は、PENをデータ駆動型ソリューションとして、インスタンスセグメンテーションネットワークから2次元セグメンテーションを改善する3次元データの圧縮表現を形成する。
- 参考スコア(独自算出の注目度): 3.0464385291578973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary approaches to instance segmentation in cell science use 2D or 3D
convolutional networks depending on the experiment and data structures.
However, limitations in microscopy systems or efforts to prevent phototoxicity
commonly require recording sub-optimally sampled data regimes that greatly
reduces the utility of such 3D data, especially in crowded environments with
significant axial overlap between objects. In such regimes, 2D segmentations
are both more reliable for cell morphology and easier to annotate. In this
work, we propose the Projection Enhancement Network (PEN), a novel
convolutional module which processes the sub-sampled 3D data and produces a 2D
RGB semantic compression, and is trained in conjunction with an instance
segmentation network of choice to produce 2D segmentations. Our approach
combines augmentation to increase cell density using a low-density cell image
dataset to train PEN, and curated datasets to evaluate PEN. We show that with
PEN, the learned semantic representation in CellPose encodes depth and greatly
improves segmentation performance in comparison to maximum intensity projection
images as input, but does not similarly aid segmentation in region-based
networks like Mask-RCNN. Finally, we dissect the segmentation strength against
cell density of PEN with CellPose on disseminated cells from side-by-side
spheroids. We present PEN as a data-driven solution to form compressed
representations of 3D data that improve 2D segmentations from instance
segmentation networks.
- Abstract(参考訳): 細胞科学におけるインスタンスセグメンテーションの現代的アプローチは、実験とデータ構造に応じて2Dまたは3D畳み込みネットワークを使用する。
しかし、顕微鏡システムの制限や光毒性の防止には、特にオブジェクト間の大きな軸重なる混在環境において、そのような3Dデータの有用性を著しく低減する、準最適サンプルデータレギュレーションを記録する必要がある。
このような方法では、2dのセグメンテーションは細胞の形態に信頼性があり、注釈が容易である。
本研究では,サブサンプリングされた3dデータを処理し,2d rgb意味圧縮を生成する新しい畳み込みモジュールであるprojection enhancement network (pen)を提案する。
提案手法は,低密度のセルイメージデータセットを用いてPENを訓練し,PENを評価するためのキュレートデータセットを用いて,セル密度を増大させる。
ペンでは,セルポスで学習された意味表現が奥行きを符号化し,最大強度投影画像の入力によるセグメンテーション性能を大幅に向上させるが,mask-rcnnのような領域ベースのネットワークでは同じようにセグメンテーションを補助しない。
最後に,PENとCellPoseの細胞密度に対するセグメンテーション強度を左右のスフェロイドから散布した細胞上で解析した。
我々は、PENをデータ駆動型ソリューションとして、インスタンスセグメンテーションネットワークから2次元セグメンテーションを改善する3次元データの圧縮表現を形成する。
関連論文リスト
- YOLO2U-Net: Detection-Guided 3D Instance Segmentation for Microscopy [0.0]
脳組織中の細胞の正確な3Dインスタンスセグメンテーションのための包括的手法を提案する。
提案手法は,2次元YOLO検出法と多視点融合アルゴリズムを組み合わせることで,細胞の3次元局在化を構築する。
提案手法の有望な性能を,現在の深層学習に基づく3次元インスタンス分割法と比較した。
論文 参考訳(メタデータ) (2022-07-13T14:17:52Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Robust 3D Cell Segmentation: Extending the View of Cellpose [0.1384477926572109]
3次元画像データのセグメンテーション精度を向上させるためにcellposeアプローチを拡張した。
グラデーションマップの定式化は、堅牢なままで、類似のセグメンテーション精度に達する間、いかに簡略化できるかを示す。
論文 参考訳(メタデータ) (2021-05-03T12:47:41Z) - HIVE-Net: Centerline-Aware HIerarchical View-Ensemble Convolutional
Network for Mitochondria Segmentation in EM Images [3.1498833540989413]
より効率的な2次元畳み込みを用いた3次元空間コンテキスト学習のための新しい階層型ビューアンサンブル畳み込み(HVEC)を提案する。
提案手法は, 精度と画質は良好だが, モデルサイズは大幅に小さく, 最先端の手法に対して好適に機能する。
論文 参考訳(メタデータ) (2021-01-08T06:56:40Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - Spatial Information Guided Convolution for Real-Time RGBD Semantic
Segmentation [79.78416804260668]
本稿では,効率的なRGB機能と3次元空間情報統合を実現するための空間情報ガイドコンボリューション(S-Conv)を提案する。
S-Convは、3次元空間情報によって導かれる畳み込みカーネルのサンプリングオフセットを推測する能力を有する。
我々はさらにS-Convを空間情報ガイド畳み込みネットワーク(SGNet)と呼ばれるセグメンテーションネットワークに組み込みます。
論文 参考訳(メタデータ) (2020-04-09T13:38:05Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。