論文の概要: Sparsity-based background removal for STORM super-resolution images
- arxiv url: http://arxiv.org/abs/2401.07746v1
- Date: Mon, 15 Jan 2024 14:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 16:47:15.674736
- Title: Sparsity-based background removal for STORM super-resolution images
- Title(参考訳): STORM超解像画像の空間的背景除去
- Authors: Patris Valera, Josu\'e Page Vizca\'ino, Tobias Lasser
- Abstract要約: 本研究では,異なる顕微鏡領域からニューラルネットワーク(SLNet)を適応させることにより,空間性に基づく背景除去手法を提案する。
SLNetは、画像の低ランク表現を演算し、それを原画像から減算することにより、スパース成分を計算し、背景のないフレームを表現する。
この結果から, スパース分解法はSTORM前処理ツールとして重要かつ効率的な可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-molecule localization microscopy techniques, like stochastic optical
reconstruction microscopy (STORM), visualize biological specimens by
stochastically exciting sparse blinking emitters. The raw images suffer from
unwanted background fluorescence, which must be removed to achieve
super-resolution. We introduce a sparsity-based background removal method by
adapting a neural network (SLNet) from a different microscopy domain. The SLNet
computes a low-rank representation of the images, and then, by subtracting it
from the raw images, the sparse component is computed, representing the frames
without the background. We compared our approach with widely used background
removal methods, such as the median background removal or the rolling ball
algorithm, on two commonly used STORM datasets, one glial cell, and one
microtubule dataset. The SLNet delivers STORM frames with less background,
leading to higher emitters' localization precision and higher-resolution
reconstructed images than commonly used methods. Notably, the SLNet is
lightweight and easily trainable (<5 min). Since it is trained in an
unsupervised manner, no prior information is required and can be applied to any
STORM dataset. We uploaded a pre-trained SLNet to the Bioimage model zoo,
easily accessible through ImageJ. Our results show that our sparse
decomposition method could be an essential and efficient STORM pre-processing
tool.
- Abstract(参考訳): 確率的光再構成顕微鏡(STORM)のような単一分子局在化顕微鏡技術は、確率的にエキサイティングなスパース点滅エミッタによって生物学的標本を可視化する。
生画像は不要な背景蛍光に悩まされ、超高分解能を達成するためには除去する必要がある。
本稿では,異なる顕微鏡領域からニューラルネットワーク(SLNet)を適応させることにより,空間的背景除去手法を提案する。
SLNetは、画像の低ランク表現を演算し、それを原画像から減算することにより、スパース成分を計算し、背景のないフレームを表現する。
提案手法は,ストームデータセット,グリアセル,マイクロタブデータセットの2つを用いて,中央値の背景除去やローリングボールアルゴリズムなど,広く使用されている背景除去手法と比較した。
SLNetはバックグラウンドの少ないSTORMフレームを提供するため、エミッタのローカライズ精度が高く、一般的な方法よりも高解像度の再構成画像が得られる。
特にSLNetは軽量で、簡単にトレーニングできる(<5分)。
教師なしの方法でトレーニングされているため、事前情報は不要で、任意のSTORMデータセットに適用できる。
トレーニング済みのSLNetをBioimageモデル動物園にアップロードし、ImageJで簡単にアクセスできるようにした。
その結果,本手法はストーム前処理ツールとして必須かつ効率的であることがわかった。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - FocDepthFormer: Transformer with latent LSTM for Depth Estimation from Focal Stack [11.433602615992516]
本稿では,トランスフォーマーをLSTMモジュールとCNNデコーダと統合した新しいトランスフォーマーネットワークFocDepthFormerを提案する。
LSTMを組み込むことで、FocDepthFormerは大規模な単分子RGB深さ推定データセットで事前トレーニングすることができる。
我々のモデルは、複数の評価指標で最先端のアプローチより優れています。
論文 参考訳(メタデータ) (2023-10-17T11:53:32Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Learning Single Image Defocus Deblurring with Misaligned Training Pairs [80.13320797431487]
単一画像デフォーカスデブロリングのための連成デブロアリングおよびリブロアリング学習フレームワークを提案する。
我々のフレームワークは、定量的メトリクスと視覚的品質の両方の観点から、デフォーカスデブロワーリングネットワークを向上するために適用することができる。
論文 参考訳(メタデータ) (2022-11-26T07:36:33Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - Estimation of Optical Aberrations in 3D Microscopic Bioimages [1.588193964339148]
生体試料の3次元画像に使用可能なPhaseNetの拡張について述べる。
我々は、Richardson-Lucyデコンボリューションを通じて、Pythonベースのイメージの復元を追加します。
予測されたPSFとのデコンボリューションは, 模擬収差を除去するだけでなく, 未知のPSFをともなう実際の生顕微鏡画像の品質を向上させることができる。
論文 参考訳(メタデータ) (2022-09-16T13:22:25Z) - One-Stage Deep Edge Detection Based on Dense-Scale Feature Fusion and
Pixel-Level Imbalance Learning [5.370848116287344]
後処理なしで高品質なエッジ画像を生成することができる一段階ニューラルネットワークモデルを提案する。
提案モデルでは、トレーニング済みのニューラルモデルをエンコーダとして使用する古典的なエンコーダデコーダフレームワークを採用している。
本稿では,エッジ画像の画素レベルの不均衡に対処する新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-03-17T15:26:00Z) - AS-Net: Fast Photoacoustic Reconstruction with Multi-feature Fusion from
Sparse Data [1.7237160821929758]
光音響イメージングは、従来の光学イメージング技術よりもはるかに大きな深さでの光吸収の高コントラスト画像を得ることができる。
本稿では,スパースPA生データをニューラルネットワークに適したものにするために,新しい信号処理手法を提案する。
次に,多機能核融合を用いたPA再構成のためのアテンションステアリングネットワーク(AS-Net)を提案する。
論文 参考訳(メタデータ) (2021-01-22T03:49:30Z) - Principled network extraction from images [0.0]
本稿では,スケーラブルで効率的な画像からネットワークトポロジを抽出する原理モデルを提案する。
我々は,網膜血管系,スライムカビ,河川網の実際の画像を用いて本モデルを検証した。
論文 参考訳(メタデータ) (2020-12-23T15:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。