論文の概要: The Projection-Enhancement Network (PEN)
- arxiv url: http://arxiv.org/abs/2301.10877v1
- Date: Thu, 26 Jan 2023 00:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 14:47:25.022118
- Title: The Projection-Enhancement Network (PEN)
- Title(参考訳): プロジェクション・エンハンスメント・ネットワーク(PEN)
- Authors: Christopher Z. Eddy, Austin Naylor, Bo Sun
- Abstract要約: サブサンプリングされた3Dデータを処理し、2次元RGBセマンティック圧縮を生成する新しい畳み込みモジュールを提案する。
PENでは、CellPoseで学習した意味表現が深さを符号化し、セグメンテーション性能を大幅に向上することを示す。
我々は、PENをデータ駆動型ソリューションとして、インスタンスセグメンテーションネットワークから2次元セグメンテーションを改善する3次元データの圧縮表現を形成する。
- 参考スコア(独自算出の注目度): 3.0464385291578973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary approaches to instance segmentation in cell science use 2D or 3D
convolutional networks depending on the experiment and data structures.
However, limitations in microscopy systems or efforts to prevent phototoxicity
commonly require recording sub-optimally sampled data regimes that greatly
reduces the utility of such 3D data, especially in crowded environments with
significant axial overlap between objects. In such regimes, 2D segmentations
are both more reliable for cell morphology and easier to annotate. In this
work, we propose the Projection Enhancement Network (PEN), a novel
convolutional module which processes the sub-sampled 3D data and produces a 2D
RGB semantic compression, and is trained in conjunction with an instance
segmentation network of choice to produce 2D segmentations. Our approach
combines augmentation to increase cell density using a low-density cell image
dataset to train PEN, and curated datasets to evaluate PEN. We show that with
PEN, the learned semantic representation in CellPose encodes depth and greatly
improves segmentation performance in comparison to maximum intensity projection
images as input, but does not similarly aid segmentation in region-based
networks like Mask-RCNN. Finally, we dissect the segmentation strength against
cell density of PEN with CellPose on disseminated cells from side-by-side
spheroids. We present PEN as a data-driven solution to form compressed
representations of 3D data that improve 2D segmentations from instance
segmentation networks.
- Abstract(参考訳): 細胞科学におけるインスタンスセグメンテーションの現代的アプローチは、実験とデータ構造に応じて2Dまたは3D畳み込みネットワークを使用する。
しかし、顕微鏡システムの制限や光毒性の防止には、特にオブジェクト間の大きな軸重なる混在環境において、そのような3Dデータの有用性を著しく低減する、準最適サンプルデータレギュレーションを記録する必要がある。
このような方法では、2dのセグメンテーションは細胞の形態に信頼性があり、注釈が容易である。
本研究では,サブサンプリングされた3dデータを処理し,2d rgb意味圧縮を生成する新しい畳み込みモジュールであるprojection enhancement network (pen)を提案する。
提案手法は,低密度のセルイメージデータセットを用いてPENを訓練し,PENを評価するためのキュレートデータセットを用いて,セル密度を増大させる。
ペンでは,セルポスで学習された意味表現が奥行きを符号化し,最大強度投影画像の入力によるセグメンテーション性能を大幅に向上させるが,mask-rcnnのような領域ベースのネットワークでは同じようにセグメンテーションを補助しない。
最後に,PENとCellPoseの細胞密度に対するセグメンテーション強度を左右のスフェロイドから散布した細胞上で解析した。
我々は、PENをデータ駆動型ソリューションとして、インスタンスセグメンテーションネットワークから2次元セグメンテーションを改善する3次元データの圧縮表現を形成する。
関連論文リスト
- Augmented Efficiency: Reducing Memory Footprint and Accelerating Inference for 3D Semantic Segmentation through Hybrid Vision [9.96433151449016]
本稿では,2次元と3次元のコンピュータビジョン技術を組み合わせた3次元セマンティックセグメンテーションの新たなアプローチを提案する。
我々は3次元点雲にリンクしたRGB画像に対して2Dセマンティックセマンティックセマンティックセマンティクスを行い、その結果をクラスラベルの押出手法を用いて3Dに拡張する。
このモデルは、KITTI-360データセット上の最先端の3Dセマンティックセマンティックセグメンテーションモデルとして機能する。
論文 参考訳(メタデータ) (2024-07-23T00:04:10Z) - Contextual Embedding Learning to Enhance 2D Networks for Volumetric Image Segmentation [5.995633685952995]
2次元畳み込みニューラルネットワーク(CNN)は、体積データの空間的相関をほとんど利用できない。
本研究では,空間情報を適切にキャプチャする2次元CNNを実現するためのコンテキスト埋め込み学習手法を提案する。
提案手法では,学習した埋め込みとスライスワイズマッチングをソフトキューとして活用し,ネットワークを誘導する。
論文 参考訳(メタデータ) (2024-04-02T08:17:39Z) - ClusteringSDF: Self-Organized Neural Implicit Surfaces for 3D Decomposition [32.99080359375706]
ClusteringSDFは、ニューラルな暗黙の表面表現を通して3次元のセグメンテーションと再構成を実現するための新しいアプローチである。
ScanNetとReplicaのデータセットから得られた挑戦的なシーンにおける実験結果から,ClusteringSDFが競争力を発揮することを示す。
論文 参考訳(メタデータ) (2024-03-21T17:59:16Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Robust 3D Cell Segmentation: Extending the View of Cellpose [0.1384477926572109]
3次元画像データのセグメンテーション精度を向上させるためにcellposeアプローチを拡張した。
グラデーションマップの定式化は、堅牢なままで、類似のセグメンテーション精度に達する間、いかに簡略化できるかを示す。
論文 参考訳(メタデータ) (2021-05-03T12:47:41Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - Spatial Information Guided Convolution for Real-Time RGBD Semantic
Segmentation [79.78416804260668]
本稿では,効率的なRGB機能と3次元空間情報統合を実現するための空間情報ガイドコンボリューション(S-Conv)を提案する。
S-Convは、3次元空間情報によって導かれる畳み込みカーネルのサンプリングオフセットを推測する能力を有する。
我々はさらにS-Convを空間情報ガイド畳み込みネットワーク(SGNet)と呼ばれるセグメンテーションネットワークに組み込みます。
論文 参考訳(メタデータ) (2020-04-09T13:38:05Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。