論文の概要: Lightweight CycleGAN Models for Cross-Modality Image Transformation and Experimental Quality Assessment in Fluorescence Microscopy
- arxiv url: http://arxiv.org/abs/2510.15579v1
- Date: Fri, 17 Oct 2025 12:20:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.612723
- Title: Lightweight CycleGAN Models for Cross-Modality Image Transformation and Experimental Quality Assessment in Fluorescence Microscopy
- Title(参考訳): クロスモダリティ画像変換のための軽量サイクルGANモデルと蛍光顕微鏡による実験的品質評価
- Authors: Mohammad Soltaninezhad, Yashar Rouzbahani, Jhonatan Contreras, Rohan Chippalkatti, Daniel Kwaku Abankwa, Christian Eggeling, Thomas Bocklitz,
- Abstract要約: 蛍光顕微鏡(超解像STED/非畳み込みSTED)におけるモダリティ伝達のための軽量CycleGANを提案する。
U-Netベースのジェネレータの従来のチャネルダンブリング戦略を固定チャネルアプローチに置き換えることで、トレーニング可能なパラメータを418万から約9千に大幅に削減し、より高速なトレーニングとメモリ使用量の削減を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lightweight deep learning models offer substantial reductions in computational cost and environmental impact, making them crucial for scientific applications. We present a lightweight CycleGAN for modality transfer in fluorescence microscopy (confocal to super-resolution STED/deconvolved STED), addressing the common challenge of unpaired datasets. By replacing the traditional channel-doubling strategy in the U-Net-based generator with a fixed channel approach, we drastically reduce trainable parameters from 41.8 million to approximately nine thousand, achieving superior performance with faster training and lower memory usage. We also introduce the GAN as a diagnostic tool for experimental and labeling quality. When trained on high-quality images, the GAN learns the characteristics of optimal imaging; deviations between its generated outputs and new experimental images can reveal issues such as photobleaching, artifacts, or inaccurate labeling. This establishes the model as a practical tool for validating experimental accuracy and image fidelity in microscopy workflows.
- Abstract(参考訳): 軽量のディープラーニングモデルは計算コストと環境への影響を大幅に削減し、科学的な応用に欠かせないものとなっている。
蛍光顕微鏡(超解像STED/非畳み込みSTED)におけるモダリティ伝達のための軽量CycleGANを提案する。
U-Netベースのジェネレータの従来のチャネルダンブリング戦略を固定チャネルアプローチに置き換えることで、トレーニング可能なパラメータを418万から約9千に大幅に削減し、より高速なトレーニングとメモリ使用量の削減を実現した。
また,実験とラベル付けのための診断ツールとして,GANを導入する。
高品質の画像で訓練すると、GANは最適な画像の特徴を学習し、生成した出力と新しい実験画像とのずれは、写真漂白、アーティファクト、不正確なラベルなどの問題を明らかにすることができる。
これにより、このモデルは、顕微鏡ワークフローにおける実験精度と画像の忠実度を検証するための実用的なツールとして確立される。
関連論文リスト
- High-Throughput Low-Cost Segmentation of Brightfield Microscopy Live Cell Images [3.175346985850522]
本研究は,光電場顕微鏡で観察した無残な生細胞のセグメンテーションに焦点を当てた。
冷凍エンコーダの比較分析を取り入れた低コストCNNパイプラインを開発した。
このモデルは、多様な生きた細胞変異を特徴とする公開データセットで検証された。
論文 参考訳(メタデータ) (2025-08-17T22:05:58Z) - Grayscale to Hyperspectral at Any Resolution Using a Phase-Only Lens [0.0]
我々は、HxWグレースケールのスナップショット測定から、HxWx31ハイパースペクトル像を再構成する問題について検討する。
我々は,小さなパッチで動作する条件付き偏差拡散モデルを訓練することにより,限られたデータの利用を効率的に行う。
実験の結果,パッチサイズはPSFほど小さく,良好な結果が得られた。
論文 参考訳(メタデータ) (2024-12-03T20:00:21Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Enhancing Fluorescence Lifetime Parameter Estimation Accuracy with Differential Transformer Based Deep Learning Model Incorporating Pixelwise Instrument Response Function [0.3441582801949978]
蛍光ライフタイムイメージング(FLI)は、組織微小環境に関するユニークな情報を提供する。
近年のディープラーニングの進歩により、蛍光寿命パラメーターの推定が改善されている。
本稿では,実験的な光子時間ヒストグラムとともに,計装応答関数(IRF)を付加入力として統合した新しいDLアーキテクチャであるMFliNetを提案する。
論文 参考訳(メタデータ) (2024-11-25T20:03:41Z) - LUCYD: A Feature-Driven Richardson-Lucy Deconvolution Network [0.31402652384742363]
本稿では,ボリューム顕微鏡画像の復元手法であるLUCYDを提案する。
ルーシードはリチャードソン=ルーシーの脱畳み込み公式と、完全な畳み込みネットワークによって得られる深い特徴の融合を組み合わせた。
実験の結果,LUCYDは顕微鏡画像の解像度,コントラスト,全体的な画質を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-07-16T10:34:23Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。