論文の概要: Geometrically Matched Multi-source Microscopic Image Synthesis Using
Bidirectional Adversarial Networks
- arxiv url: http://arxiv.org/abs/2010.13308v2
- Date: Sat, 27 Mar 2021 04:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 19:49:44.517406
- Title: Geometrically Matched Multi-source Microscopic Image Synthesis Using
Bidirectional Adversarial Networks
- Title(参考訳): 双方向逆ネットワークを用いた幾何マッチング多源画像合成
- Authors: Jun Zhuang, Dali Wang
- Abstract要約: マルチソース領域から多様な顕微鏡像を合成する革新的なモデルアーキテクチャであるBANISを提案する。
実験結果から、BANISはC. elegansの顕微鏡画像上で良好な画像対を合成できたことが示唆された。
- 参考スコア(独自算出の注目度): 1.3515965758160213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Microscopic images from multiple modalities can produce plentiful
experimental information. In practice, biological or physical constraints under
a given observation period may prevent researchers from acquiring enough
microscopic scanning. Recent studies demonstrate that image synthesis is one of
the popular approaches to release such constraints. Nonetheless, most existing
synthesis approaches only translate images from the source domain to the target
domain without solid geometric associations. To embrace this challenge, we
propose an innovative model architecture, BANIS, to synthesize diversified
microscopic images from multi-source domains with distinct geometric features.
The experimental outcomes indicate that BANIS successfully synthesizes
favorable image pairs on C. elegans microscopy embryonic images. To the best of
our knowledge, BANIS is the first application to synthesize microscopic images
that associate distinct spatial geometric features from multi-source domains.
- Abstract(参考訳): 複数のモードからの顕微鏡画像は、豊富な実験情報を生成できる。
実際には、特定の観察期間の生物学的または物理的制約は、研究者が十分な顕微鏡スキャンを得るのを妨げる可能性がある。
近年の研究では、画像合成がそのような制約を解放するための一般的なアプローチの1つであることが示されている。
しかしながら、既存のほとんどの合成手法は、固い幾何学的関連なしに、ソースドメインからターゲットドメインへの変換のみを行う。
この課題を受け入れるために,多元領域から異なる幾何学的特徴を持つ多様な顕微鏡像を合成する,革新的なモデルアーキテクチャであるbanisを提案する。
実験結果から,バニスはc. elegans顕微鏡胚像上で好適な画像対を合成できたことが示唆された。
我々の知る限りでは、BANISはマルチソース領域と異なる空間幾何学的特徴を関連付ける顕微鏡像を合成する最初のアプリケーションである。
関連論文リスト
- Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Generative Adversarial Networks for Brain Images Synthesis: A Review [2.609784101826762]
医用画像において、画像合成とは、ある画像(シーケンス、モダリティ)を別の画像(シーケンス、モダリティ)から推定する過程である。
GAN(Generative Adversarial Network)は、GAN(Generative-based Deep Learning)の一種。
我々は,CTからPETへの画像合成,CTからMRIへの画像合成,PETへの画像合成,およびその逆を含む最近のGANの展開を要約した。
論文 参考訳(メタデータ) (2023-05-16T17:28:06Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - MRIS: A Multi-modal Retrieval Approach for Image Synthesis on Diverse
Modalities [19.31577453889188]
多様なモダリティの画像を合成するために,マルチモーダルなメトリック学習に基づくアプローチを開発する。
3次元磁気共鳴(MR)画像から得られた軟骨厚図を2次元ラジオグラフィーで合成し,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-03-17T20:58:55Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Synplex: A synthetic simulator of highly multiplexed histological images [2.816013261482056]
本稿では,免疫染色組織画像の多重化が可能なシミュレーションシステムであるsynplexを提案する。
Synplex は 3 つのシーケンシャルモジュールで構成され、それぞれが別々のタスクを担当します。
マルチプレックス画像解析アルゴリズムのトレーニングおよび/または検証に有用なツールになると考えています。
論文 参考訳(メタデータ) (2021-03-08T09:12:02Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。