論文の概要: Differentiable Microscopy for Content and Task Aware Compressive
Fluorescence Imaging
- arxiv url: http://arxiv.org/abs/2203.14945v1
- Date: Mon, 28 Mar 2022 17:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:15:48.283710
- Title: Differentiable Microscopy for Content and Task Aware Compressive
Fluorescence Imaging
- Title(参考訳): コンテンツとタスクアウェアの異なる顕微鏡による圧縮蛍光イメージング
- Authors: Udith Haputhanthri, Andrew Seeber, Dushan Wadduwage
- Abstract要約: スループットと画質のトレードオフは、顕微鏡に固有の課題である。
ディープラーニングに基づく手法は、圧縮と画質において大きな成功を収めた。
本稿では, 可微分圧縮蛍光顕微鏡を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The trade-off between throughput and image quality is an inherent challenge
in microscopy. To improve throughput, compressive imaging under-samples image
signals; the images are then computationally reconstructed by solving a
regularized inverse problem. Compared to traditional regularizers, Deep
Learning based methods have achieved greater success in compression and image
quality. However, the information loss in the acquisition process sets the
compression bounds. Further improvement in compression, without compromising
the reconstruction quality is thus a challenge. In this work, we propose
differentiable compressive fluorescence microscopy ($\partial \mu$) which
includes a realistic generalizable forward model with learnable-physical
parameters (e.g. illumination patterns), and a novel physics-inspired inverse
model. The cascaded model is end-to-end differentiable and can learn optimal
compressive sampling schemes through training data. With our model, we
performed thousands of numerical experiments on various compressive microscope
configurations. Our results suggest that learned sampling outperforms widely
used traditional compressive sampling schemes at higher compressions ($\times
100- 1000$) in terms of reconstruction quality. We further utilize our
framework for Task Aware Compression. The experimental results show superior
performance on segmentation tasks even at extremely high compression ($\times
4096$).
- Abstract(参考訳): スループットと画質のトレードオフは、顕微鏡に固有の課題である。
スループットを向上させるため、圧縮撮像は画像信号をアンダーサンプリングし、画像は正規化逆問題を解くことで計算的に再構成される。
従来の正規化器と比較すると、Deep Learningベースの手法は圧縮と画質において大きな成功を収めている。
しかし、取得プロセスにおける情報損失は圧縮限界を設定する。
したがって、復元品質を損なうことなく圧縮のさらなる改善が課題となる。
本研究では,学習可能な物理パラメータ(例えば照明パターン)を持つ現実的な一般化されたフォワードモデルと,新しい物理に触発された逆モデルを含む,微分可能な圧縮蛍光顕微鏡(\partial \mu$)を提案する。
カスケードモデルはエンドツーエンドの微分可能であり、トレーニングデータを通じて最適な圧縮サンプリングスキームを学習できる。
本モデルでは, 各種圧縮顕微鏡構成の数値実験を数千回行った。
以上の結果から,学習サンプリングは従来の圧縮サンプリング方式よりも高い圧縮率(100~1000ドル)で広く用いられていることが示唆された。
タスク認識圧縮のためのフレームワークをさらに活用する。
実験の結果,超高圧縮でもセグメンテーションタスクにおいて優れた性能を示す(時間4096$)。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Deep learning based Image Compression for Microscopy Images: An
Empirical Study [3.915183869199319]
本研究では,古典的および深層学習に基づく画像圧縮法とその深層学習に基づく画像処理モデルへの影響について分析する。
このような所望の方法で画像を圧縮するには、複数の古典的損失画像圧縮技術と、複数のAIベースの圧縮モデルを比較する。
その結果、AIベースの圧縮技術は従来の圧縮技術よりも優れており、2Dケースでは下流のラベルなしタスクに最小限の影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-11-02T16:00:32Z) - Machine Perception-Driven Image Compression: A Layered Generative
Approach [32.23554195427311]
階層型生成画像圧縮モデルを提案する。
タスクに依存しない学習に基づく圧縮モデルを提案し、様々な圧縮されたドメインベースの分析タスクを効果的にサポートする。
圧縮比、再構成画像品質、下流知覚性能の最良のバランス点を得るために、共同最適化スケジュールを採用する。
論文 参考訳(メタデータ) (2023-04-14T02:12:38Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。