論文の概要: BioGAN: An unpaired GAN-based image to image translation model for
microbiological images
- arxiv url: http://arxiv.org/abs/2306.06217v1
- Date: Fri, 9 Jun 2023 19:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 20:19:56.335052
- Title: BioGAN: An unpaired GAN-based image to image translation model for
microbiological images
- Title(参考訳): BioGAN: 微生物画像のための画像から画像への変換モデル
- Authors: Saber Mirzaee Bafti, Chee Siang Ang, Gianluca Marcelli, Md. Moinul
Hossain, Sadiya Maxamhud, Anastasios D. Tsaousis
- Abstract要約: 微生物画像のための画像翻訳モデルとして,未ペアのGAN(Generative Adversarial Network)画像を開発した。
本稿では,実験室で撮影された画像の高レベルな特徴をフィールド画像に変換するために,適応的・知覚的損失を利用したGANモデルBioGANの設計を提案する。
- 参考スコア(独自算出の注目度): 1.6427658855248812
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A diversified dataset is crucial for training a well-generalized supervised
computer vision algorithm. However, in the field of microbiology, generation
and annotation of a diverse dataset including field-taken images are time
consuming, costly, and in some cases impossible. Image to image translation
frameworks allow us to diversify the dataset by transferring images from one
domain to another. However, most existing image translation techniques require
a paired dataset (original image and its corresponding image in the target
domain), which poses a significant challenge in collecting such datasets. In
addition, the application of these image translation frameworks in microbiology
is rarely discussed. In this study, we aim to develop an unpaired GAN-based
(Generative Adversarial Network) image to image translation model for
microbiological images, and study how it can improve generalization ability of
object detection models. In this paper, we present an unpaired and unsupervised
image translation model to translate laboratory-taken microbiological images to
field images, building upon the recent advances in GAN networks and Perceptual
loss function. We propose a novel design for a GAN model, BioGAN, by utilizing
Adversarial and Perceptual loss in order to transform high level features of
laboratory-taken images into field images, while keeping their spatial
features. The contribution of Adversarial and Perceptual loss in the generation
of realistic field images were studied. We used the synthetic field images,
generated by BioGAN, to train an object-detection framework, and compared the
results with those of an object-detection framework trained with laboratory
images; this resulted in up to 68.1% and 75.3% improvement on F1-score and mAP,
respectively. Codes is publicly available at
https://github.com/Kahroba2000/BioGAN.
- Abstract(参考訳): 多様化されたデータセットは、よく一般化されたコンピュータビジョンアルゴリズムのトレーニングに不可欠である。
しかし、微生物学の分野では、フィールドテイク画像を含む多様なデータセットの生成と注釈は、時間的消費、コスト的、場合によっては不可能である。
画像から画像への変換フレームワークにより、あるドメインから別のドメインに画像を転送することで、データセットを多様化できます。
しかし、既存のほとんどの画像翻訳技術では、ペア化されたデータセット(元の画像とターゲットドメインの対応する画像)が必要であるため、このようなデータセットの収集には大きな課題が生じる。
さらに、これらの画像翻訳フレームワークを微生物学に適用することはめったにない。
本研究では, 微生物画像に対する画像翻訳モデルに対して, 非ペア化gan(generative adversarial network)画像を開発し, 物体検出モデルの一般化能力を向上させる方法について検討する。
本稿では,GANネットワークと知覚的損失関数の最近の進歩を基盤として,実験室が取り込んだ微生物画像からフィールド画像への変換を行う。
本稿では, 空間的特徴を維持しつつ, 室内画像の高レベルな特徴をフィールド画像に変換するために, 対角的・知覚的損失を利用したGANモデルBioGANを提案する。
実写フィールド画像の生成における敵意的および知覚的損失の寄与について検討した。
我々は,BioGANによって生成された合成フィールド画像を用いて,対象検出フレームワークをトレーニングし,実験室画像で訓練した対象検出フレームワークと比較し,F1スコアとmAPで最大68.1%,75.3%改善した。
Codesはhttps://github.com/Kahroba2000/BioGANで公開されている。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Could We Generate Cytology Images from Histopathology Images? An Empirical Study [1.791005104399795]
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
論文 参考訳(メタデータ) (2024-03-16T10:43:12Z) - BiomedJourney: Counterfactual Biomedical Image Generation by
Instruction-Learning from Multimodal Patient Journeys [99.7082441544384]
本稿では,インストラクション学習によるバイオメディカル画像生成のための新しい手法であるBiomedJourneyを紹介する。
我々は、GPT-4を用いて、対応する画像レポートを処理し、疾患進行の自然言語記述を生成する。
得られた三重項は、反現実的なバイオメディカル画像生成のための潜伏拡散モデルを訓練するために使用される。
論文 参考訳(メタデータ) (2023-10-16T18:59:31Z) - Unpaired Image-to-Image Translation with Limited Data to Reveal Subtle
Phenotypes [0.5076419064097732]
本稿では,多数の画像の必要性を軽減するために,自己教師付き識別器を用いた改良型CycleGANアーキテクチャを提案する。
また, 生物学的データセットを用いて, 明らかな細胞表現型および非予防的な細胞表現型変異について検討した。
論文 参考訳(メタデータ) (2023-01-21T16:25:04Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - From augmented microscopy to the topological transformer: a new approach
in cell image analysis for Alzheimer's research [0.0]
細胞画像解析は、細胞機能を抑制するA$beta$タンパク質の存在を検出するために、アルツハイマーの研究において重要である。
Unetは,マルチクラスセマンティックスセグメンテーションの性能を比較することで,拡張顕微鏡に最も適していることがわかった。
我々は,Unetモデルを用いて,光電場画像中の原子核を捕捉する拡張顕微鏡法を開発し,入力画像を位相情報列に変換する。
論文 参考訳(メタデータ) (2021-08-03T16:59:33Z) - Deep learning-based bias transfer for overcoming laboratory differences
of microscopic images [0.0]
免疫蛍光(IF)およびヘマトキシリンおよびエオシン(H&E)染色顕微鏡画像の領域シフトを克服するために,既存の生成モデルアーキテクチャを評価し,比較し,改良する。
前立腺生検では,ヒト腎糸球体およびポドサイトに対するピクセルレベルのセグメンテーションが有意に向上し,分類精度が最大14%向上した。
論文 参考訳(メタデータ) (2021-05-25T09:02:30Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Image Synthesis with Adversarial Networks: a Comprehensive Survey and
Case Studies [41.00383742615389]
GAN(Generative Adversarial Networks)は、コンピュータビジョン、医学、自然言語処理など、さまざまなアプリケーション分野で非常に成功しています。
GANは、意味的に意味のあるサンプルを合成する複雑な分布を学習するための強力なモデルである。
本調査では,現時点の高速なGANの開発状況を踏まえ,画像合成の敵モデルに関する総合的なレビューを行う。
論文 参考訳(メタデータ) (2020-12-26T13:30:42Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。