論文の概要: SparseFocus: Learning-based One-shot Autofocus for Microscopy with Sparse Content
- arxiv url: http://arxiv.org/abs/2502.06452v1
- Date: Mon, 10 Feb 2025 13:31:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:01.993703
- Title: SparseFocus: Learning-based One-shot Autofocus for Microscopy with Sparse Content
- Title(参考訳): SparseFocus: スパース含量顕微鏡のための学習型ワンショットオートフォーカス
- Authors: Yongping Zhai, Xiaoxi Fu, Qiang Su, Jia Hu, Yake Zhang, Yunfeng Zhou, Chaofan Zhang, Xiao Li, Wenxin Wang, Dongdong Wu, Shen Yan,
- Abstract要約: オートフォーカスは顕微鏡画像における高スループットおよびリアルタイム走査に必要である。
最近の学習に基づくアプローチは、ワンショット環境で顕著な効果を示している。
SparseFocusという名前のコンテンツベースのソリューションを提案し、新しい2段階パイプラインを特徴とする。
- 参考スコア(独自算出の注目度): 21.268550523841117
- License:
- Abstract: Autofocus is necessary for high-throughput and real-time scanning in microscopic imaging. Traditional methods rely on complex hardware or iterative hill-climbing algorithms. Recent learning-based approaches have demonstrated remarkable efficacy in a one-shot setting, avoiding hardware modifications or iterative mechanical lens adjustments. However, in this paper, we highlight a significant challenge that the richness of image content can significantly affect autofocus performance. When the image content is sparse, previous autofocus methods, whether traditional climbing-hill or learning-based, tend to fail. To tackle this, we propose a content-importance-based solution, named SparseFocus, featuring a novel two-stage pipeline. The first stage measures the importance of regions within the image, while the second stage calculates the defocus distance from selected important regions. To validate our approach and benefit the research community, we collect a large-scale dataset comprising millions of labelled defocused images, encompassing both dense, sparse and extremely sparse scenarios. Experimental results show that SparseFocus surpasses existing methods, effectively handling all levels of content sparsity. Moreover, we integrate SparseFocus into our Whole Slide Imaging (WSI) system that performs well in real-world applications. The code and dataset will be made available upon the publication of this paper.
- Abstract(参考訳): オートフォーカスは顕微鏡画像における高スループットおよびリアルタイム走査に必要である。
伝統的な手法は複雑なハードウェアや反復的なヒルクライミングアルゴリズムに依存している。
最近の学習に基づくアプローチは、ハードウェア修正や反復的なメカニカルレンズ調整を回避し、ワンショット設定で顕著な効果を示している。
しかし,本稿では,画像コンテンツの豊かさがオートフォーカス性能に大きく影響することを示す。
画像内容がまばらな場合、従来のクライミングヒルであれ学習ベースであれ、従来のオートフォーカス手法は失敗する傾向にある。
そこで本研究では,新たな2段階パイプラインを備えたコンテンツ重要度ベースのソリューションSparseFocusを提案する。
第1段階は画像内の領域の重要性を計測し、第2段階は選択された重要領域からデフォーカス距離を算出する。
我々のアプローチを検証し、研究コミュニティに利益をもたらすために、何百万ものラベル付き非焦点画像からなる大規模なデータセットを収集し、密集した、疎開な、非常にスパースなシナリオを包含する。
実験の結果,SparseFocusは既存の手法を超越し,すべてのレベルのコンテンツ空間を効果的に扱えることがわかった。
さらに,SparseFocusを実世界のアプリケーションでよく動作するWSIシステムに統合する。
コードとデータセットは、この記事の公開時に公開されます。
関連論文リスト
- Uni-AdaFocus: Spatial-temporal Dynamic Computation for Video Recognition [82.75714185083383]
本稿では,映像理解におけるデータ冗長性の現象について検討し,計算効率の向上を目的とした。
この現象に触発され,AdaFocusと呼ばれる空間適応型ビデオ認識手法を導入する。
得られたフレームワークであるUni-AdaFocusは、シームレスに空間的、時間的、サンプルワイドな動的計算を統合する包括的なフレームワークを構築します。
論文 参考訳(メタデータ) (2024-12-15T15:51:44Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Learnable Blur Kernel for Single-Image Defocus Deblurring in the Wild [9.246199263116067]
本稿では,デフォーカスマップのガイダンスを用いて画像のデブロリングを実装する新しいデフォーカスデブロアリング法を提案する。
提案手法は,デフォーカスマップを推定する学習可能なぼかしカーネルと,デフォーカスGAN(Generative Adversarial Network)を初めてデフォーカスする単一イメージデフォーカスとから構成される。
論文 参考訳(メタデータ) (2022-11-25T10:47:19Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。