論文の概要: Dual-Cycle: Self-Supervised Dual-View Fluorescence Microscopy Image
Reconstruction using CycleGAN
- arxiv url: http://arxiv.org/abs/2209.11729v1
- Date: Fri, 23 Sep 2022 17:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:27:10.053372
- Title: Dual-Cycle: Self-Supervised Dual-View Fluorescence Microscopy Image
Reconstruction using CycleGAN
- Title(参考訳): デュアルサイクル:CycleGANを用いたデュアルビュー蛍光顕微鏡画像再構成
- Authors: Tomas Kerepecky and Jiaming Liu and Xue Wen Ng and David W. Piston and
Ulugbek S. Kamilov
- Abstract要約: 両面蛍光画像の統合・融合のための新しいフレームワークであるDual-Cycleを提案する。
最近のNeuroclear法にインスパイアされたDual-Cycleは、自己教師型で訓練されたサイクル一貫性のある生成ネットワークとして設計されている。
- 参考スコア(独自算出の注目度): 15.662343976149637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Three-dimensional fluorescence microscopy often suffers from anisotropy,
where the resolution along the axial direction is lower than that within the
lateral imaging plane. We address this issue by presenting Dual-Cycle, a new
framework for joint deconvolution and fusion of dual-view fluorescence images.
Inspired by the recent Neuroclear method, Dual-Cycle is designed as a
cycle-consistent generative network trained in a self-supervised fashion by
combining a dual-view generator and prior-guided degradation model. We validate
Dual-Cycle on both synthetic and real data showing its state-of-the-art
performance without any external training data.
- Abstract(参考訳): 三次元蛍光顕微鏡はしばしば異方性に悩まされ、軸方向の分解能は横方向の撮像面よりも低い。
両面蛍光画像の結合分解と融合のための新しいフレームワークであるDual-Cycleを提案することでこの問題に対処する。
最近のNeuroclear法にインスパイアされたDual-Cycleは、デュアルビュージェネレータと事前誘導分解モデルを組み合わせて、自己教師付きで訓練されたサイクル一貫性のある生成ネットワークとして設計されている。
外部のトレーニングデータなしで,合成データと実データの両方において,その最新性能を示すデュアルサイクルを検証する。
関連論文リスト
- D-SCo: Dual-Stream Conditional Diffusion for Monocular Hand-Held Object Reconstruction [74.49121940466675]
モノクローナルハンドヘルドオブジェクト再構成のためのCentroid-fixed dual-stream conditionalfusionを導入する。
まず、対象のセントロイドがずれることを避けるために、手動制約付きセントロイド固定パラダイムを用いる。
第2に、意味的および幾何学的に手動物体の相互作用をモデル化するための二重ストリームデノイザを導入する。
論文 参考訳(メタデータ) (2023-11-23T20:14:50Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Bi-Modality Medical Image Synthesis Using Semi-Supervised Sequential
Generative Adversarial Networks [35.358653509217994]
本稿では,GANと半教師付き学習に基づく双方向医療画像合成手法を提案する。
提案手法は, 2つのモードの画像を逐次的に合成する2つの生成モジュールから構成される。
視覚的および定量的な結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-27T10:39:33Z) - Improved Multi-Shot Diffusion-Weighted MRI with Zero-Shot
Self-Supervised Learning Reconstruction [7.347468593124183]
ゼロMIRIDと呼ばれる新しいmsEPI再構成手法(改良拡散MRIのためのマルチショット画像再構成のためのゼロショット自己教師型学習)を提案する。
本手法は、深層学習に基づく画像正規化技術を組み込むことで、msEPIデータを共同で再構成する。
In-vivo実験で示されるように、最先端の並列イメージング法と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2023-08-09T17:54:56Z) - Reference-Free Isotropic 3D EM Reconstruction using Diffusion Models [8.590026259176806]
本稿では、参照データや劣化過程に関する事前知識の制限を克服する拡散モデルに基づくフレームワークを提案する。
提案手法では, 2次元拡散モデルを用いて連続的に3次元ボリュームを再構成し, 高精度なサンプルデータに適している。
論文 参考訳(メタデータ) (2023-08-03T07:57:02Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Semi- and Self-Supervised Multi-View Fusion of 3D Microscopy Images
using Generative Adversarial Networks [0.11719282046304678]
蛍光顕微鏡の最近の進歩により、生体モデル生物の高解像度3D画像の撮影が可能になった。
巨大な標本を撮影するためには、多視点の光シート画像のような技術が各時点の異なる向きを記録している。
CNNベースのマルチビューデコンボリューションと2つの合成データセットとの融合は、胚の発生を模倣し、2つまたは4つの相補的な3Dビューを含む。
論文 参考訳(メタデータ) (2021-08-05T17:21:01Z) - Total Generate: Cycle in Cycle Generative Adversarial Networks for
Generating Human Faces, Hands, Bodies, and Natural Scenes [76.83075646527521]
C2GAN(Cycle in Cycle Generative Adversarial Network)は、人間の顔、手、体、自然のシーンのための自転車。
提案するC2GANは,入力画像データとガイダンスデータの相互利用を対話的に探索するクロスモーダルモデルである。
論文 参考訳(メタデータ) (2021-06-21T06:20:16Z) - Single-shot Hyperspectral-Depth Imaging with Learned Diffractive Optics [72.9038524082252]
単発単眼単眼ハイパースペクトル(HS-D)イメージング法を提案する。
本手法では, 回折光学素子 (DOE) を用いる。
DOE の学習を容易にするため,ベンチトップ HS-D イメージラーを構築することで,最初の HS-D データセットを提案する。
論文 参考訳(メタデータ) (2020-09-01T14:19:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。