論文の概要: CleftNet: Augmented Deep Learning for Synaptic Cleft Detection from
Brain Electron Microscopy
- arxiv url: http://arxiv.org/abs/2101.04266v1
- Date: Tue, 12 Jan 2021 02:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:51:32.342668
- Title: CleftNet: Augmented Deep Learning for Synaptic Cleft Detection from
Brain Electron Microscopy
- Title(参考訳): CleftNet:脳電子顕微鏡によるシナプス下肢検出のための深層学習
- Authors: Yi Liu, Shuiwang Ji
- Abstract要約: 本稿では,脳em画像からのシナプス裂検出を改善するために,cleftnetと呼ばれる新しい拡張深層学習モデルを提案する。
まず、機能拡張器とラベル拡張器と呼ばれる2つの新しいネットワークコンポーネントを提案し、機能とラベルを強化し、口蓋表現を改善します。
- 参考スコア(独自算出の注目度): 49.3704402041314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting synaptic clefts is a crucial step to investigate the biological
function of synapses. The volume electron microscopy (EM) allows the
identification of synaptic clefts by photoing EM images with high resolution
and fine details. Machine learning approaches have been employed to
automatically predict synaptic clefts from EM images. In this work, we propose
a novel and augmented deep learning model, known as CleftNet, for improving
synaptic cleft detection from brain EM images. We first propose two novel
network components, known as the feature augmentor and the label augmentor, for
augmenting features and labels to improve cleft representations. The feature
augmentor can fuse global information from inputs and learn common
morphological patterns in clefts, leading to augmented cleft features. In
addition, it can generate outputs with varying dimensions, making it flexible
to be integrated in any deep network. The proposed label augmentor augments the
label of each voxel from a value to a vector, which contains both the
segmentation label and boundary label. This allows the network to learn
important shape information and to produce more informative cleft
representations. Based on the proposed feature augmentor and label augmentor,
We build the CleftNet as a U-Net like network. The effectiveness of our methods
is evaluated on both online and offline tasks. Our CleftNet currently ranks \#1
on the online task of the CREMI open challenge. In addition, both quantitative
and qualitative results in the offline tasks show that our method outperforms
the baseline approaches significantly.
- Abstract(参考訳): シナプス裂の検出はシナプスの生物学的機能を調べる上で重要なステップである。
体積電子顕微鏡(em)は、em像を高分解能で微細に撮影することでシナプス裂の同定を可能にする。
em画像からシナプス裂を自動的に予測するために、機械学習のアプローチが採用されている。
そこで本研究では,脳EM画像からのシナプス・クリフ検出を改善するための,CleftNetと呼ばれる新しい深層学習モデルを提案する。
まず,機能拡張器とラベル拡張器という2つの新しいネットワークコンポーネントを提案する。
機能拡張子は、入力からグローバル情報を融合し、cleftで共通の形態的パターンを学習し、拡張されたcleft機能に繋がる。
さらに、さまざまな次元の出力を生成して、任意のディープネットワークに柔軟に統合することができる。
提案するラベル拡張器は,各ボクセルのラベルを値からベクトルに拡張し,セグメンテーションラベルと境界ラベルの両方を含む。
これにより、ネットワークは重要な形状情報を学び、より情報的なクリフ表現を生成することができる。
提案する機能拡張子とラベル拡張子に基づき、cleftnetをu-netライクなネットワークとして構築する。
本手法の有効性は,オンラインタスクとオフラインタスクの両方で評価される。
私たちのCleftNetは現在、CREMIオープンチャレンジのオンラインタスクで#1にランク付けしています。
さらに,オフラインタスクにおける定量的および定性的な結果から,本手法がベースラインアプローチを大きく上回っていることが示された。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - U-Net v2: Rethinking the Skip Connections of U-Net for Medical Image Segmentation [14.450329809640422]
医用画像分割のための新しい堅牢で効率的なU-Net変種であるU-Net v2を紹介する。
セマンティックな情報を低レベルの機能に注入し、同時に細かな詳細で高レベルの機能を改善することを目的としている。
論文 参考訳(メタデータ) (2023-11-29T16:35:24Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Dual Convolutional Neural Networks for Breast Mass Segmentation and
Diagnosis in Mammography [18.979126709943085]
本稿では,マンモグラム画像処理のための新しいディープラーニングフレームワークを提案する。
本手法はデュアルパスアーキテクチャで構築され,そのマッピングをデュアルプロブレム方式で解決する。
実験の結果,DualCoreNetはマンモグラフィーのセグメンテーションと分類を同時に達成し,最近の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-07T02:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。