論文の概要: Defocus Deblur Microscopy via Head-to-Tail Cross-scale Fusion
- arxiv url: http://arxiv.org/abs/2201.02876v2
- Date: Tue, 30 May 2023 04:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 03:15:49.305287
- Title: Defocus Deblur Microscopy via Head-to-Tail Cross-scale Fusion
- Title(参考訳): ヘッド・トゥ・タイル・クロススケール核融合によるデフォーカス分解顕微鏡
- Authors: Jiahe Wang, Boran Han
- Abstract要約: カスケード残留傾きのないマルチスケールU-Net構造を開発した。
従来の粗大なモデルとは対照的に,我々のモデルは大規模相互作用を強化する。
提案手法は,既存モデルと比較して性能が向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Microscopy imaging is vital in biology research and diagnosis. When imaging
at the scale of cell or molecule level, mechanical drift on the axial axis can
be difficult to correct. Although multi-scale networks have been developed for
deblurring, those cascade residual learning approaches fail to accurately
capture the end-to-end non-linearity of deconvolution, a relation between
in-focus images and their out-of-focus counterparts in microscopy. In our
model, we adopt a structure of multi-scale U-Net without cascade residual
leaning. Additionally, in contrast to the conventional coarse-to-fine model,
our model strengthens the cross-scale interaction by fusing the features from
the coarser sub-networks with the finer ones in a head-to-tail manner: the
decoder from the coarser scale is fused with the encoder of the finer ones.
Such interaction contributes to better feature learning as fusion happens
across decoder and encoder at all scales. Numerous experiments demonstrate that
our method yields better performance when compared with other existing models.
- Abstract(参考訳): 顕微鏡イメージングは生物学の研究と診断に不可欠である。
細胞または分子レベルでイメージングする場合、軸方向の機械的ドリフトを補正することは困難である。
マルチスケールネットワークはデブロアリングのために開発されたが、これらのカスケード残差学習アプローチはデコンボリューションの終端から終端までの非線形性を正確に捉えることができない。
本モデルでは, カスケード残留傾きのないマルチスケールU-Net構造を採用する。
さらに, 従来の粗大化モデルとは対照的に, このモデルでは, 粗大化サブネットワークから細小化サブネットワークへ, 粗大化デコーダと細小化サブネットワークのエンコーダを融合させて, クロススケール相互作用を強化する。
このような相互作用は、デコーダとエンコーダをあらゆる規模で融合することで、機能学習を改善することに寄与する。
本手法は既存のモデルと比較して性能が向上することを示す実験を多数実施している。
関連論文リスト
- FIAS: Feature Imbalance-Aware Medical Image Segmentation with Dynamic Fusion and Mixing Attention [11.385231493066312]
畳み込みニューラルネットワーク(CNN)とトランスフォーマーを組み合わせたハイブリッドアーキテクチャは、医療画像セグメンテーションにおける競争力を示している。
本稿では、デュアルパスエンコーダとMixAtt(MixAtt)デコーダを組み込んだフェール・インバランス・アウェア(FIAS)ネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T20:30:44Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - FocDepthFormer: Transformer with latent LSTM for Depth Estimation from Focal Stack [11.433602615992516]
本稿では,トランスフォーマーをLSTMモジュールとCNNデコーダと統合した新しいトランスフォーマーネットワークFocDepthFormerを提案する。
LSTMを組み込むことで、FocDepthFormerは大規模な単分子RGB深さ推定データセットで事前トレーニングすることができる。
我々のモデルは、複数の評価指標で最先端のアプローチより優れています。
論文 参考訳(メタデータ) (2023-10-17T11:53:32Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - MaxViT-UNet: Multi-Axis Attention for Medical Image Segmentation [0.46040036610482665]
MaxViT-UNetは医療画像セグメンテーションのためのハイブリッドビジョントランス (CNN-Transformer) である。
提案するハイブリッドデコーダは,各復号段階における畳み込み機構と自己保持機構の両方のパワーを利用するように設計されている。
復号器の各段階における多軸自己アテンションの包含は、対象領域と背景領域の識別能力を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-15T07:23:54Z) - CoCoNet: Coupled Contrastive Learning Network with Multi-level Feature
Ensemble for Multi-modality Image Fusion [72.8898811120795]
我々は、赤外線と可視画像の融合を実現するために、CoCoNetと呼ばれるコントラスト学習ネットワークを提案する。
本手法は,主観的評価と客観的評価の両面において,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-11-20T12:02:07Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - Cross Attention-guided Dense Network for Images Fusion [6.722525091148737]
本稿では,新しいクロスアテンション誘導画像融合ネットワークを提案する。
マルチモーダル画像融合、マルチ露光画像融合、マルチフォーカス画像融合のための統一的で教師なしのフレームワークである。
以上の結果から,提案モデルが定量的かつ質的に,最先端のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-09-23T14:22:47Z) - Crosslink-Net: Double-branch Encoder Segmentation Network via Fusing
Vertical and Horizontal Convolutions [58.71117402626524]
医用画像分割のための新しいダブルブランチエンコーダアーキテクチャを提案する。
1)正方形畳み込みカーネルによる特徴の識別をさらに改善する必要があるため,非正方形および水平畳み込みカーネルの利用を提案する。
実験では,4つのデータセット上でのモデルの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-24T02:58:32Z) - Efficient and Accurate Multi-scale Topological Network for Single Image
Dehazing [31.543771270803056]
本稿では,入力画像自体の特徴抽出と利用に注意を払います。
本稿では,マルチスケールトポロジカルネットワーク (mstn) を提案する。
一方、我々は、異なるスケールで機能の選択と融合を達成するために、マルチスケール機能融合モジュール(MFFM)と適応機能選択モジュール(AFSM)を設計します。
論文 参考訳(メタデータ) (2021-02-24T08:53:14Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。