論文の概要: SynFundus: Generating a synthetic fundus images dataset with millions of
samples and multi-disease annotations
- arxiv url: http://arxiv.org/abs/2312.00377v1
- Date: Fri, 1 Dec 2023 06:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:29:37.423071
- Title: SynFundus: Generating a synthetic fundus images dataset with millions of
samples and multi-disease annotations
- Title(参考訳): synfundus: 数百万のサンプルとマルチディセーゼアノテーションを備えた合成ファンドイメージデータセットの生成
- Authors: Fangxin Shang, Jie Fu, Yehui Yang, Lei Ma
- Abstract要約: 我々はSynFundus-1Mを紹介した。これは100万枚以上の網膜基底画像と広範な疾患および病理診断アノテーションを備えた高品質な合成データセットである。
SynFundus-Generator と SynFundus-1M は、Frechet Inception Distance (FID) スコアを、メインストリームのパブリックな実際のデータセットの既存の方法と比較して上回っている。
- 参考スコア(独自算出の注目度): 27.142941391405934
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the field of medical imaging, the scarcity of large-scale datasets due to
privacy restrictions stands as a significant barrier to develop large models
for medical. To address this issue, we introduce SynFundus-1M, a high-quality
synthetic dataset with over 1 million retinal fundus images and extensive
disease and pathologies annotations, which is generated by a Denoising
Diffusion Probabilistic Model. The SynFundus-Generator and SynFundus-1M achieve
superior Frechet Inception Distance (FID) scores compared to existing methods
on main-stream public real datasets. Furthermore, the ophthalmologists
evaluation validate the difficulty in discerning these synthetic images from
real ones, confirming the SynFundus-1M's authenticity. Through extensive
experiments, we demonstrate that both CNN and ViT can benifit from SynFundus-1M
by pretraining or training directly. Compared to datasets like ImageNet or
EyePACS, models train on SynFundus-1M not only achieve better performance but
also faster convergence on various downstream tasks.
- Abstract(参考訳): 医療画像の分野では、プライバシー制限による大規模データセットの不足は、医療用大規模モデルを開発する上で重要な障壁となっている。
この問題に対処するために,100万枚以上の網膜基底画像と広範な疾患・病理アノテーションを備えた高品質な合成データセットであるSynFundus-1Mを紹介した。
synfundus-generatorとsynfundus-1mは、メインストリームのパブリックリアルデータセットの既存の方法に比べて優れたフレシェ開始距離(fid)スコアを達成する。
さらに眼科医は、合成画像と実際の画像との識別の難しさを検証し、synfundus-1mの真正性を確認した。
広汎な実験により,CNNとViTがSynFundus-1Mから事前訓練やトレーニングによって得られることが実証された。
ImageNetやEyePACSのようなデータセットと比較して、モデルはSynFundus-1Mでトレーニングされる。
関連論文リスト
- Learning Vision from Models Rivals Learning Vision from Data [54.43596959598465]
合成画像と合成キャプションのみから視覚表現を学習するための新しいアプローチであるSynCLRを紹介する。
LLMを用いて画像キャプションの大規模なデータセットを合成し,既製のテキスト・ツー・イメージモデルを用いて合成キャプションに対応する複数の画像を生成する。
比較学習によって合成画像の視覚的表現学習を行い、同じ字幕を共有するイメージを正のペアとして扱う。
論文 参考訳(メタデータ) (2023-12-28T18:59:55Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - Augmenting medical image classifiers with synthetic data from latent
diffusion models [12.077733447347592]
我々は,潜伏拡散モデルが皮膚疾患の画像を生成することを実証した。
我々は,複数の生成戦略を用いて生成した458,920個の合成画像の新しいデータセットを生成し,解析する。
論文 参考訳(メタデータ) (2023-08-23T22:34:49Z) - You Don't Have to Be Perfect to Be Amazing: Unveil the Utility of
Synthetic Images [2.0790547421662064]
我々は、忠実さ、多様性、プライバシー、実用性など、総合的な合成画像評価ツールを確立した。
100k以上の胸部X線画像とその合成コピーを分析し、合成画像の忠実度、多様性、プライバシーの間に必然的なトレードオフがあることを実証した。
論文 参考訳(メタデータ) (2023-05-25T13:47:04Z) - The Beauty or the Beast: Which Aspect of Synthetic Medical Images
Deserves Our Focus? [1.6305276867803995]
医療AIアルゴリズムのトレーニングには、大量の正確なラベル付きデータセットが必要である。
深層生成モデルから生成された合成画像は、データの不足問題を緩和するのに役立つが、それらの有効性は実世界の画像への忠実さに依存している。
論文 参考訳(メタデータ) (2023-05-03T09:09:54Z) - Mask-conditioned latent diffusion for generating gastrointestinal polyp
images [2.027538200191349]
本研究では,与えられたセグメンテーションマスクに条件付き合成GIポリプ画像を生成する条件付きDPMフレームワークを提案する。
本システムでは,ポリプの接地真実マスクを用いて,無限個の高忠実度合成ポリプ画像を生成することができる。
以上の結果から,実データと合成データの両方からなるトレーニングデータから,DeepLabv3+から0.7751の最適マイクロイモージョンIOUが得られた。
論文 参考訳(メタデータ) (2023-04-11T14:11:17Z) - Differentially Private Diffusion Models Generate Useful Synthetic Images [53.94025967603649]
近年の研究では、いくつかの拡散モデルの出力がトレーニングデータのプライバシを保持していないことが報告されている。
CIFAR-10 と Camelyon17 のSOTA 結果を得た。
以上の結果から,差分プライバシーで微調整された拡散モデルが有用かつ実証可能なプライベートな合成データを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-02-27T15:02:04Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - IntraQ: Learning Synthetic Images with Intra-Class Heterogeneity for
Zero-Shot Network Quantization [118.39791787743401]
IntraQと呼ばれる新しいゼロショット量子化法を提案する。
まず,合成画像の異なるスケールと位置で対象物を特定する局所的物体補強法を提案する。
第2に、粗い領域に分布するクラス関連特徴を形成するために、限界距離制約を導入する。
第3に,軟弱な先行ラベルを注入するソフトロスを考案し,合成画像が固定対象物に過度に収まらないようにした。
論文 参考訳(メタデータ) (2021-11-17T14:17:19Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。