論文の概要: Multimodal registration of FISH and nanoSIMS images using convolutional
neural network models
- arxiv url: http://arxiv.org/abs/2201.05545v1
- Date: Fri, 14 Jan 2022 16:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:58:32.820067
- Title: Multimodal registration of FISH and nanoSIMS images using convolutional
neural network models
- Title(参考訳): 畳み込みニューラルネットワークモデルを用いたFISHおよびナノSIMS画像のマルチモーダル登録
- Authors: Xiaojia He, Christof Meile, Suchendra M. Bhandarkar
- Abstract要約: FISH画像とnanoSIMS画像のマルチモーダルな登録は、どちらの画像にも形態的歪みと背景雑音があるため困難である。
畳み込みニューラルネットワーク(CNN)を用いて,最小変換コストの特徴マッチングの計算を行う。
- 参考スコア(独自算出の注目度): 14.71992435706872
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nanoscale secondary ion mass spectrometry (nanoSIMS) and fluorescence in situ
hybridization (FISH) microscopy provide high-resolution, multimodal image
representations of the identity and cell activity respectively of targeted
microbial communities in microbiological research. Despite its importance to
microbiologists, multimodal registration of FISH and nanoSIMS images is
challenging given the morphological distortion and background noise in both
images. In this study, we use convolutional neural networks (CNNs) for
multiscale feature extraction, shape context for computation of the minimum
transformation cost feature matching and the thin-plate spline (TPS) model for
multimodal registration of the FISH and nanoSIMS images. All the six tested CNN
models, VGG16, VGG19, GoogLeNet and ShuffleNet, ResNet18 and ResNet101
performed well, demonstrating the utility of CNNs in the registration of
multimodal images with significant background noise and morphology distortion.
We also show aggregate shape preserved by binarization to be a robust feature
for registering multimodal microbiology-related images.
- Abstract(参考訳): ナノスケール二次イオン質量分析法 (nanoSIMS) および蛍光 in situ hybridization (FISH) 顕微鏡は、微生物研究における標的微生物群集のアイデンティティと細胞活性の高解像度・多モード画像表現を提供する。
微生物学者にとって重要であるにもかかわらず、FISHおよびnanoSIMS画像のマルチモーダルな登録は、どちらの画像にも形態的歪みと背景雑音があるため困難である。
本研究では,多スケール特徴抽出のための畳み込みニューラルネットワーク(cnns),最小変換コスト特徴マッチングの計算のための形状コンテキスト,魚およびナノsims画像のマルチモーダル登録のための薄板スプライン(tps)モデルを用いた。
6つの試験されたCNNモデル、VGG16、VGG19、GoogLeNet、ShuffleNet、ResNet18、ResNet101はいずれもよく機能し、背景ノイズと形態歪みが著しいマルチモーダル画像の登録におけるCNNの有用性を示した。
また,バイナライゼーションにより保存された骨材形状を多モード微生物画像の登録に有用であることを示す。
関連論文リスト
- Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Enhancing CT Image synthesis from multi-modal MRI data based on a
multi-task neural network framework [16.864720020158906]
拡張型Transformer U-Netアーキテクチャに基づく多目的マルチタスクニューラルネットワークフレームワークを提案する。
我々はCT画像を個別のサブタスクに分解する従来の問題を分解する。
マルチモーダルデータを扱う際のフレームワークの汎用性を高めるため,複数の画像チャネルでモデルを拡張した。
論文 参考訳(メタデータ) (2023-12-13T18:22:38Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - CoNeS: Conditional neural fields with shift modulation for
multi-sequence MRI translation [5.906587713767098]
マルチシーケンスMRI(Multi-sequence magnetic resonance imaging)は、現代の臨床研究とディープラーニング研究の両方に広く応用されている。
画像取得プロトコルの違いや、患者のコントラスト剤の禁忌が原因で、MRIの1つ以上の配列が欠落することがしばしば起こる。
1つの有望なアプローチは、生成モデルを利用して欠落したシーケンスを合成することであり、これはサロゲート獲得の役割を果たす。
論文 参考訳(メタデータ) (2023-09-06T19:01:58Z) - STEM image analysis based on deep learning: identification of vacancy
defects and polymorphs of ${MoS_2}$ [0.49583061314078714]
2次元結晶の重要な構造的特徴の同定に完全畳み込みネットワーク(FCN)を適用した。
FCNは、様々なレベルのノイズ、収差、炭素汚染の存在下でのシミュレーション画像で訓練されている。
広範囲な実験STEM画像に対するFCNモデルの精度は、注意深いハンズオン分析の精度に匹敵する。
論文 参考訳(メタデータ) (2022-06-09T04:43:56Z) - Three-dimensional microstructure generation using generative adversarial
neural networks in the context of continuum micromechanics [77.34726150561087]
本研究は, 三次元マイクロ構造生成に適した生成対向ネットワークを提案する。
軽量アルゴリズムは、明示的な記述子を必要とせずに、単一のmicroCTスキャンから材料の基礎特性を学習することができる。
論文 参考訳(メタデータ) (2022-05-31T13:26:51Z) - Understanding the Influence of Receptive Field and Network Complexity in
Neural-Network-Guided TEM Image Analysis [0.0]
透過電子顕微鏡(TEM)画像において,ニューラルネットワークのアーキテクチャ選択がニューラルネットワークセグメントに与える影響を系統的に検討した。
背景からナノ粒子を区別するために振幅コントラストに依存した低分解能TEM画像の場合、受容場はセグメンテーション性能に有意な影響を与えない。
一方、ナノ粒子を識別するために振幅と位相コントラストの組合せに依存する高分解能TEM画像では、受容場が性能向上の鍵となるパラメータである。
論文 参考訳(メタデータ) (2022-04-08T18:45:15Z) - Super-resolution reconstruction of cytoskeleton image based on A-net
deep learning network [7.967593061012609]
我々はA-netネットワークを提案し,分解モデルに基づくA-netディープラーニングネットワークとDWDCアルゴリズムを組み合わせることにより,サイトスケルトン画像の分解能を大幅に向上できることを示した。
生画像中の細胞構造を阻害するノイズや凝集構造を除去し,比較的小さなデータセットを用いて空間分解能を10倍改善した。
論文 参考訳(メタデータ) (2021-12-17T15:33:47Z) - Multimodal Face Synthesis from Visual Attributes [85.87796260802223]
本稿では,マルチモーダル顔画像を保存するIDを同時に合成する新たな生成対向ネットワークを提案する。
実画像と偽画像の区別を行う識別装置にマルチモーダルストレッチインモジュールを導入。
論文 参考訳(メタデータ) (2021-04-09T13:47:23Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。