論文の概要: SynFundus: A synthetic fundus images dataset with millions of samples
and multi-disease annotations
- arxiv url: http://arxiv.org/abs/2312.00377v2
- Date: Mon, 11 Dec 2023 11:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:09:39.256218
- Title: SynFundus: A synthetic fundus images dataset with millions of samples
and multi-disease annotations
- Title(参考訳): synfundus:数百万のサンプルとマルチディセーゼアノテーションを備えた合成ファンドイメージデータセット
- Authors: Fangxin Shang, Jie Fu, Yehui Yang, Haifeng Huang, Junwei Liu, Lei Ma
- Abstract要約: 我々はSynFundus-1Mをリリースした。SynFundus-1Mは、textbf100万基画像を含む高品質な合成データセットである。
全ての画像は、SynFundus-Generatorという名前のDenoising Diffusion Probabilistic Modelによって生成される。
我々は、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の両方が、SynFundus-1Mの事前トレーニングやトレーニングによって恩恵を受けることを実証した。
- 参考スコア(独自算出の注目度): 29.442093768521143
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the field of medical imaging, there are seldom large-scale public datasets
with high-quality annotations due to data privacy and annotation cost. To
address this issue, we release SynFundus-1M, a high-quality synthetic dataset
containing over \textbf{1 million} fundus images w.r.t. 11 disease types.
Moreover, we intentionally diversify the readability of the images and
accordingly provide 4 types of the quality score for each image. To the best of
our knowledge, SynFundus-1M is currently the largest fundus dataset with the
most sophisticated annotations. All the images are generated by a Denoising
Diffusion Probabilistic Model, named SynFundus-Generator. Trained with over 1.3
million private fundus images, our SynFundus-Generator achieves significant
superior performance in generating fundus images compared to some recent
related works. Furthermore, we blend some synthetic images from SynFundus-1M
with real fundus images, and ophthalmologists can hardly distinguish the
synthetic images from real ones. Through extensive experiments, we demonstrate
that both convolutional neural networs (CNN) and Vision Transformer (ViT) can
benefit from SynFundus-1M by pretraining or training directly. Compared to
datasets like ImageNet or EyePACS, models trained on SynFundus-1M not only
achieve better performance but also faster convergence on various downstream
tasks.
- Abstract(参考訳): 医療画像の分野では、データのプライバシとアノテーションコストのために、高品質なアノテーションを備えた大規模な公開データセットがほとんどありません。
この問題に対処するため、私たちはSynFundus-1Mをリリースした。SynFundus-1Mは、textbf{100 million} Fundusイメージを含む高品質な合成データセットである。
さらに,画像の読みやすさを意図的に多様化させ,画像ごとに4種類の品質スコアを提供する。
我々の知る限り、SynFundus-1Mは現在、最も洗練されたアノテーションを備えた最大のファンドデータセットです。
すべての画像は拡散確率モデルsynfundus-generatorによって生成される。
我々のSynFundus-Generatorは、13万以上のプライベートファンドイメージで訓練されており、最近のいくつかの関連する作品と比較して、ベースイメージの生成において優れたパフォーマンスを実現している。
さらに,SynFundus-1Mの合成画像と実際の眼底画像とをブレンドし,眼科医は合成画像と実際の画像とを区別することができない。
広範にわたる実験により、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の両方が、SynFundus-1Mの事前トレーニングやトレーニングによって恩恵を受けることを示した。
ImageNetやEyePACSのようなデータセットと比較して、SynFundus-1Mでトレーニングされたモデルは、より良いパフォーマンスを達成するだけでなく、さまざまな下流タスクへのより速い収束も達成している。
関連論文リスト
- Learning Vision from Models Rivals Learning Vision from Data [54.43596959598465]
合成画像と合成キャプションのみから視覚表現を学習するための新しいアプローチであるSynCLRを紹介する。
LLMを用いて画像キャプションの大規模なデータセットを合成し,既製のテキスト・ツー・イメージモデルを用いて合成キャプションに対応する複数の画像を生成する。
比較学習によって合成画像の視覚的表現学習を行い、同じ字幕を共有するイメージを正のペアとして扱う。
論文 参考訳(メタデータ) (2023-12-28T18:59:55Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - Augmenting medical image classifiers with synthetic data from latent
diffusion models [12.077733447347592]
我々は,潜伏拡散モデルが皮膚疾患の画像を生成することを実証した。
我々は,複数の生成戦略を用いて生成した458,920個の合成画像の新しいデータセットを生成し,解析する。
論文 参考訳(メタデータ) (2023-08-23T22:34:49Z) - You Don't Have to Be Perfect to Be Amazing: Unveil the Utility of
Synthetic Images [2.0790547421662064]
我々は、忠実さ、多様性、プライバシー、実用性など、総合的な合成画像評価ツールを確立した。
100k以上の胸部X線画像とその合成コピーを分析し、合成画像の忠実度、多様性、プライバシーの間に必然的なトレードオフがあることを実証した。
論文 参考訳(メタデータ) (2023-05-25T13:47:04Z) - The Beauty or the Beast: Which Aspect of Synthetic Medical Images
Deserves Our Focus? [1.6305276867803995]
医療AIアルゴリズムのトレーニングには、大量の正確なラベル付きデータセットが必要である。
深層生成モデルから生成された合成画像は、データの不足問題を緩和するのに役立つが、それらの有効性は実世界の画像への忠実さに依存している。
論文 参考訳(メタデータ) (2023-05-03T09:09:54Z) - Mask-conditioned latent diffusion for generating gastrointestinal polyp
images [2.027538200191349]
本研究では,与えられたセグメンテーションマスクに条件付き合成GIポリプ画像を生成する条件付きDPMフレームワークを提案する。
本システムでは,ポリプの接地真実マスクを用いて,無限個の高忠実度合成ポリプ画像を生成することができる。
以上の結果から,実データと合成データの両方からなるトレーニングデータから,DeepLabv3+から0.7751の最適マイクロイモージョンIOUが得られた。
論文 参考訳(メタデータ) (2023-04-11T14:11:17Z) - Differentially Private Diffusion Models Generate Useful Synthetic Images [53.94025967603649]
近年の研究では、いくつかの拡散モデルの出力がトレーニングデータのプライバシを保持していないことが報告されている。
CIFAR-10 と Camelyon17 のSOTA 結果を得た。
以上の結果から,差分プライバシーで微調整された拡散モデルが有用かつ実証可能なプライベートな合成データを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-02-27T15:02:04Z) - High-fidelity Direct Contrast Synthesis from Magnetic Resonance
Fingerprinting [28.702553164811473]
本稿では,MRFデータからコントラスト強調画像を直接合成する教師あり学習手法を提案する。
In-vivo実験は、シミュレーションベースのコントラスト合成や従来のDCS法と比較して、視覚的にも定量的にも優れた画質を示す。
論文 参考訳(メタデータ) (2022-12-21T07:11:39Z) - IntraQ: Learning Synthetic Images with Intra-Class Heterogeneity for
Zero-Shot Network Quantization [118.39791787743401]
IntraQと呼ばれる新しいゼロショット量子化法を提案する。
まず,合成画像の異なるスケールと位置で対象物を特定する局所的物体補強法を提案する。
第2に、粗い領域に分布するクラス関連特徴を形成するために、限界距離制約を導入する。
第3に,軟弱な先行ラベルを注入するソフトロスを考案し,合成画像が固定対象物に過度に収まらないようにした。
論文 参考訳(メタデータ) (2021-11-17T14:17:19Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Multimodal Image Synthesis with Conditional Implicit Maximum Likelihood
Estimation [54.17177006826262]
我々はImplicit Maximum Likelihood Estimation (IMLE)に基づく新しい一般条件画像合成法を開発した。
我々は,シーンレイアウトからの単一画像超解像と画像合成という,2つのタスクにおけるマルチモーダル画像合成性能の改善を実証した。
論文 参考訳(メタデータ) (2020-04-07T03:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。