論文の概要: scSplit: Bringing Severity Cognizance to Image Decomposition in Fluorescence Microscopy
- arxiv url: http://arxiv.org/abs/2503.22983v3
- Date: Tue, 21 Oct 2025 11:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:04.926449
- Title: scSplit: Bringing Severity Cognizance to Image Decomposition in Fluorescence Microscopy
- Title(参考訳): scSplit:蛍光顕微鏡における画像分解に重度認知をもたらす
- Authors: Ashesh Ashesh, Florian Jug,
- Abstract要約: 計算多重化技術は、複数の細胞構造を単一の画像で捉え、後に未混合にすることを可能にする。
与えられた入力に対する重ね合わせ画像の相対強度(混合比)が未定であることに注意する必要がある。
本研究では, 上記の混合比の重大さを認識した, scSplit と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 11.01840387281318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fluorescence microscopy, while being a key driver for progress in the life sciences, is also subject to technical limitations. To overcome them, computational multiplexing techniques have recently been proposed, which allow multiple cellular structures to be captured in a single image and later be unmixed. Existing image decomposition methods are trained on a set of superimposed input images and the respective unmixed target images. It is critical to note that the relative strength (mixing ratio) of the superimposed images for a given input is a priori unknown. However, existing methods are trained on a fixed intensity ratio of superimposed inputs, making them not cognizant of the range of relative intensities that can occur in fluorescence microscopy. In this work, we propose a novel method called scSplit that is cognizant of the severity of the above-mentioned mixing ratio. Our idea is based on InDI , a popular iterative method for image restoration, and an ideal starting point to embrace the unknown mixing ratio in any given input. We introduce (i) a suitably trained regressor network that predicts the degradation level (mixing ratio) of a given input image and (ii) a degradation-specific normalization module, enabling degradation-aware inference across all mixing ratios. We show that this method solves two relevant tasks in fluorescence microscopy, namely image splitting and bleedthrough removal, and empirically demonstrate the applicability of scSplit on 5 public datasets. The source code with pre-trained models is hosted at https://github.com/juglab/scSplit/.
- Abstract(参考訳): 蛍光顕微鏡は、生命科学の進歩の鍵を握っているが、技術的な限界もある。
計算多重化技術は近年提案されており、複数のセル構造を単一の画像でキャプチャし、後にアンミックスすることができる。
既存の画像分解方法は、重畳された入力画像と、各未混合対象画像とに基づいて訓練される。
与えられた入力に対する重ね合わせ画像の相対強度(混合比)が未定であることに注意する必要がある。
しかし、既存の方法は重畳された入力の固定強度比に基づいて訓練されており、蛍光顕微鏡で発生する相対強度の範囲を認識できない。
本研究では, 上記の混合比の重大さを認識した, scSplit と呼ばれる新しい手法を提案する。
我々のアイデアは、画像復元の一般的な反復法であるInDIに基づいており、任意の入力において未知の混合比を受け入れる理想的な出発点である。
紹介
一 所定の入力画像の劣化レベル(混合比)を予測し、好適に訓練した回帰器ネットワーク
(II) 分解特異的な正規化モジュールで、全ての混合比における劣化認識推論を可能にする。
本手法は, 蛍光顕微鏡における2つの課題, すなわち, 画像分割と出血除去を解決し, 5つの公開データセット上での scSplit の適用性を実証的に示す。
事前トレーニングされたモデルのソースコードはhttps://github.com/juglab/scSplit/.comでホストされている。
関連論文リスト
- Addressing degeneracies in latent interpolation for diffusion models [11.80626524879555]
入力画像の集合を反転させて生成した潜伏剤間の補間に有用である。
入力数が大きければ, 結果の退化に繋がることが観察できる。
そこで本研究では,潜伏者間において容易に使用可能な簡易正規化方式を提案する。
論文 参考訳(メタデータ) (2025-05-12T12:12:57Z) - Multi-Scale Invertible Neural Network for Wide-Range Variable-Rate Learned Image Compression [90.59962443790593]
本稿では,制限を克服するために,可逆変換に基づく可変レート画像圧縮モデルを提案する。
具体的には、入力画像をマルチスケールの潜在表現にマッピングする、軽量なマルチスケール非可逆ニューラルネットワークを設計する。
実験結果から,提案手法は既存の可変レート法と比較して最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T09:08:39Z) - CALLIC: Content Adaptive Learning for Lossless Image Compression [64.47244912937204]
CALLICは、学習したロスレス画像圧縮のための新しい最先端(SOTA)を設定する。
本稿では,畳み込みゲーティング操作を利用したコンテンツ認識型自己回帰自己保持機構を提案する。
エンコーディング中、低ランク行列を用いて深度の畳み込みを含む事前学習層を分解し、レート誘導プログレッシブファインタニング(RPFT)による画像検査にインクリメンタルウェイトを適応させる。
推定エントロピーにより下位順にソートされたパッチを徐々に増加させたRPFTファインチューン,学習過程の最適化,適応時間の短縮を実現した。
論文 参考訳(メタデータ) (2024-12-23T10:41:18Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - AdaIR: Adaptive All-in-One Image Restoration via Frequency Mining and Modulation [99.57024606542416]
周波数マイニングと変調に基づく適応的なオールインワン画像復元ネットワークを提案する。
我々のアプローチは、異なる周波数サブバンド上の画像内容に異なる劣化タイプが影響を及ぼすという観察によって動機付けられている。
提案モデルでは,入力劣化に応じて情報周波数サブバンドをアクセントすることで適応的再構成を実現する。
論文 参考訳(メタデータ) (2024-03-21T17:58:14Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - DHFormer: A Vision Transformer-Based Attention Module for Image Dehazing [0.0]
ぼんやりとした条件で取得された画像は、それらによって引き起こされる劣化を生じさせる。
ハウズの効果を緩和し、ヘイズフリーな画像を生成するために、事前ベースおよび学習ベースのアプローチが提案されている。
本稿では,アテンションモジュールにおける残差学習と視覚変換を用いた手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T17:05:32Z) - Fluctuation-based deconvolution in fluorescence microscopy using
plug-and-play denoisers [2.236663830879273]
蛍光顕微鏡で得られた生きた試料の画像の空間分解能は、可視光の回折により物理的に制限される。
この制限を克服するために、いくつかのデコンボリューションと超解像技術が提案されている。
論文 参考訳(メタデータ) (2023-03-20T15:43:52Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature Ensemble for Multi-modality Image Fusion [68.78897015832113]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Adaptively Sparse Regularization for Blind Image Restoration [0.0]
ブラインド画像復元は画像の品質向上に広く利用されている。
主な目標は、ぼかしカーネルと潜むシャープなイメージを忠実に見積もることです。
本研究では,適応的スパース正規化最小化法を提案する。
論文 参考訳(メタデータ) (2021-01-23T02:40:01Z) - Augmented Equivariant Attention Networks for Microscopy Image
Reconstruction [44.965820245167635]
高品質または高解像度の電子顕微鏡(EM)と蛍光顕微鏡(FM)の画像を取るのに時間がかかり、費用がかかる。
深層学習により、様々な種類の顕微鏡画像再構成のための画像から画像への変換タスクを実行できる。
本稿では,画像間の依存関係を捕捉する機能を持つ拡張同変アテンションネットワーク(AEANets)を提案する。
論文 参考訳(メタデータ) (2020-11-06T23:37:49Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Single Image Brightening via Multi-Scale Exposure Fusion with Hybrid
Learning [48.890709236564945]
小さいISOと小さな露光時間は、通常、背面または低い光条件下で画像をキャプチャするために使用される。
本稿では、そのような画像を明るくするために、単一の画像輝度化アルゴリズムを提案する。
提案アルゴリズムは,露出時間が大きい2つの仮想画像を生成するための,ユニークなハイブリッド学習フレームワークを含む。
論文 参考訳(メタデータ) (2020-07-04T08:23:07Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - Adaptive Fractional Dilated Convolution Network for Image Aesthetics
Assessment [33.945579916184364]
適応型分数拡張畳み込み(AFDC)は、畳み込みカーネルレベルでこの問題に取り組むために開発された。
ミニバッチ学習のための簡潔な定式化を行い,グループ化戦略を用いて計算オーバーヘッドを削減する。
提案手法は,AVAデータセットを用いた画像美学評価において,最先端の性能を実現することを実証した。
論文 参考訳(メタデータ) (2020-04-06T21:56:29Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。