論文の概要: DINeuro: Distilling Knowledge from 2D Natural Images via Deformable Tubular Transferring Strategy for 3D Neuron Reconstruction
- arxiv url: http://arxiv.org/abs/2410.22078v1
- Date: Tue, 29 Oct 2024 14:36:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:39:28.069036
- Title: DINeuro: Distilling Knowledge from 2D Natural Images via Deformable Tubular Transferring Strategy for 3D Neuron Reconstruction
- Title(参考訳): DINeuro:3次元ニューロン再構築のための変形可能な管状移動戦略による2次元自然画像からの知識の希薄化
- Authors: Yik San Cheng, Runkai Zhao, Heng Wang, Hanchuan Peng, Yui Lo, Yuqian Chen, Lauren J. O'Donnell, Weidong Cai,
- Abstract要約: 3D光顕微鏡画像データからニューロンの形態を再構築することは、神経科学者が脳ネットワークや神経解剖学を分析するのを助けるために重要である。
本稿では, 潜伏埋め込み空間における神経構造固有の管状特性に, 事前学習した2次元自然知識を適応させる変形可能な管状伝達戦略を提案する。
- 参考スコア(独自算出の注目度): 10.100192103585925
- License:
- Abstract: Reconstructing neuron morphology from 3D light microscope imaging data is critical to aid neuroscientists in analyzing brain networks and neuroanatomy. With the boost from deep learning techniques, a variety of learning-based segmentation models have been developed to enhance the signal-to-noise ratio of raw neuron images as a pre-processing step in the reconstruction workflow. However, most existing models directly encode the latent representative features of volumetric neuron data but neglect their intrinsic morphological knowledge. To address this limitation, we design a novel framework that distills the prior knowledge from a 2D Vision Transformer pre-trained on extensive 2D natural images to facilitate neuronal morphological learning of our 3D Vision Transformer. To bridge the knowledge gap between the 2D natural image and 3D microscopic morphologic domains, we propose a deformable tubular transferring strategy that adapts the pre-trained 2D natural knowledge to the inherent tubular characteristics of neuronal structure in the latent embedding space. The experimental results on the Janelia dataset of the BigNeuron project demonstrate that our method achieves a segmentation performance improvement of 4.53% in mean Dice and 3.56% in mean 95% Hausdorff distance.
- Abstract(参考訳): 3D光顕微鏡画像データからニューロンの形態を再構築することは、神経科学者が脳ネットワークや神経解剖学を分析するのを助けるために重要である。
深層学習技術の強化により、再構築ワークフローにおける前処理ステップとして生ニューロン画像の信号-雑音比を高めるために、様々な学習ベースセグメンテーションモデルが開発されている。
しかし、既存のほとんどのモデルは、容積ニューロンデータの潜在的特徴を直接コードしているが、本質的な形態的知識は無視している。
この制限に対処するため、我々は、広範囲な2次元自然画像に基づいて事前訓練された2次元視覚変換器から事前知識を抽出し、我々の3次元視覚変換器の神経形態学学習を容易にする新しいフレームワークを設計した。
本研究では,2次元自然画像と3次元微視的形態領域の知識ギャップを埋めるために,潜伏埋め込み空間における神経構造固有の管状特性に事前学習した2次元自然知識を適応させる変形可能な管状伝達戦略を提案する。
The experimental results on the Janelia dataset of the BigNeuron project showed that our method achieve a segmentation performance improve of 4.53% in mean Dice and 3.56% in mean 95% Hausdorff distance。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Boosting 3D Neuron Segmentation with 2D Vision Transformer Pre-trained on Natural Images [10.790999324557179]
本研究では,大規模自然画像に事前学習した2次元視覚変換器モデルを活用する新しい訓練パラダイムを提案する。
本手法は,3次元ニューロンセグメンテーション能力を向上させるために,豊富な自然と希少なニューロン画像領域間の知識共有接続を構築する。
一般的なベンチマークであるBigNeuronで評価したところ、スクラッチからトレーニングしたモデルよりもニューロンのセグメンテーション性能が8.71%向上した。
論文 参考訳(メタデータ) (2024-05-04T14:57:28Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Transferring Models Trained on Natural Images to 3D MRI via Position
Encoded Slice Models [14.42534860640976]
2D-Slice-CNNアーキテクチャは、すべてのMRIスライスを2Dエンコーダに埋め込む。
トレーニング済みのモデルが2Dエンコーダとして機能できるという知見を得て、2DエンコーダをImageNetで初期化し、2つのニューロイメージングタスクでそれらを上回り、スクラッチからトレーニングする。
論文 参考訳(メタデータ) (2023-03-02T18:52:31Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - Voxel-wise Cross-Volume Representation Learning for 3D Neuron
Reconstruction [27.836007480393953]
本稿では,エンコーダとデコーダのセグメンテーションモデルに基づいて,新しいボクセルレベルのクロスボリューム表現学習パラダイムを提案する。
我々の手法は推論中に余分なコストを伴わない。
提案手法は,BigNeuronプロジェクトから得られた42個の3次元ニューロン画像に基づいて,元のセグメンテーションモデルの学習能力を向上させる。
論文 参考訳(メタデータ) (2021-08-14T12:17:45Z) - A Point Cloud Generative Model via Tree-Structured Graph Convolutions
for 3D Brain Shape Reconstruction [31.436531681473753]
センサスキャンなどの物理的手法を用いて,術中3次元形状情報を得ることはほとんど不可能である。
本稿では,1つの2次元画像を用いて脳の3次元点雲(PC)を再構成するGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-21T07:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。