論文の概要: PanoDiff-SR: Synthesizing Dental Panoramic Radiographs using Diffusion and Super-resolution
- arxiv url: http://arxiv.org/abs/2507.09227v1
- Date: Sat, 12 Jul 2025 09:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 20:53:35.13549
- Title: PanoDiff-SR: Synthesizing Dental Panoramic Radiographs using Diffusion and Super-resolution
- Title(参考訳): パノディフSR:拡散と超解像を用いた歯科用パノラマ線写真合成
- Authors: Sanyam Jain, Bruna Neves de Freitas, Andreas Basse-OConnor, Alexandros Iosifidis, Ruben Pauwels,
- Abstract要約: PanoDiff と Super-Resolution (SR) を組み合わせて合成歯科用パノラマ線写真(PR)を作製する手法を提案する。
前者は、SRモデルで処理されたPRの低分解能(LR)シードを生成し、1024×512の高分解能(HR)PRを生成する。
SRでは,局所的・言語的関係を学習し,よりシャープなエッジやテクスチャをもたらす最先端のトランスフォーマーを提案する。
- 参考スコア(独自算出の注目度): 60.970656010712275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been increasing interest in the generation of high-quality, realistic synthetic medical images in recent years. Such synthetic datasets can mitigate the scarcity of public datasets for artificial intelligence research, and can also be used for educational purposes. In this paper, we propose a combination of diffusion-based generation (PanoDiff) and Super-Resolution (SR) for generating synthetic dental panoramic radiographs (PRs). The former generates a low-resolution (LR) seed of a PR (256 X 128) which is then processed by the SR model to yield a high-resolution (HR) PR of size 1024 X 512. For SR, we propose a state-of-the-art transformer that learns local-global relationships, resulting in sharper edges and textures. Experimental results demonstrate a Frechet inception distance score of 40.69 between 7243 real and synthetic images (in HR). Inception scores were 2.55, 2.30, 2.90 and 2.98 for real HR, synthetic HR, real LR and synthetic LR images, respectively. Among a diverse group of six clinical experts, all evaluating a mixture of 100 synthetic and 100 real PRs in a time-limited observation, the average accuracy in distinguishing real from synthetic images was 68.5% (with 50% corresponding to random guessing).
- Abstract(参考訳): 近年,高品質でリアルな合成医療画像の創出への関心が高まっている。
このような合成データセットは、人工知能研究のための公開データセットの不足を軽減することができ、教育目的にも使用できる。
本稿では,PanoDiff と Super-Resolution (SR) を併用して合成歯科用パノラマ線写真(PR)を作製する手法を提案する。
前者はPR(256 X 128)の低分解能(LR)シードを生成し、SRモデルで処理して1024 X 512の高分解能(HR)PRを生成する。
SRでは,局所的・言語的関係を学習し,よりシャープなエッジやテクスチャをもたらす最先端のトランスフォーマーを提案する。
実験結果は、実画像と合成画像(HR)の間のフレシェの開始距離スコアが40.69であることを示している。
インセプションスコアはそれぞれ2.55点、2.30点、2.90点、2.98点、合成HR点、合成LR点、合成LR点であった。
6つの臨床専門家の多種多様なグループの中で、合成画像と実像を区別する平均精度は68.5%(ランダムな推測に対応する50%)であった。
関連論文リスト
- Proportional Sensitivity in Generative Adversarial Network (GAN)-Augmented Brain Tumor Classification Using Convolutional Neural Network [2.1669753476462015]
Generative Adversarial Networks (GAN)は、限られた医療画像データセットを拡張する可能性を示している。
本研究では,GAN生成画像と実際の脳腫瘍MRI画像の異なる比率が,健康スキャンと腫瘍スキャンの分類においてCNNのパフォーマンスに与える影響について検討した。
論文 参考訳(メタデータ) (2025-06-20T17:12:03Z) - Improving Heart Rejection Detection in XPCI Images Using Synthetic Data Augmentation [0.0]
StyleGANは利用可能な3Rバイオプシーパッチで訓練され、その後、1万のリアルな合成画像を生成するために使用された。
これらは、ResNet-18分類器をバイナリーリジェクション分類のために訓練するための様々な構成において、レジェクション無しのサンプルである実際の0Rサンプルと組み合わせられた。
その結果, 実検体と組み合わせて使用する場合, 合成データにより分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-26T09:26:36Z) - CO-SPY: Combining Semantic and Pixel Features to Detect Synthetic Images by AI [58.35348718345307]
実際の画像とAI生成画像を区別する現在の取り組みには、一般化が欠如している可能性がある。
既存のセマンティック機能を強化した新しいフレームワークCo-Spyを提案する。
また、5つの実画像データセットと22の最先端生成モデルからなる包括的データセットであるCo-Spy-Benchを作成します。
論文 参考訳(メタデータ) (2025-03-24T01:59:29Z) - Improving text-conditioned latent diffusion for cancer pathology [0.5919433278490629]
生成モデルは超現実的なデータ合成を可能にしました
現実的な画像を合成するための1つのアルゴリズムは拡散であり、反復的に画像をノイズに変換し、このノイズから回復過程を学ぶ。
VAEは、潜在空間における複雑な高解像度画像の表現を学習することを可能にする。
拡散とVOEの結婚により、オートエンコーダの潜伏空間での拡散が可能となり、拡散の現実的な生成能力を活用することができる。
論文 参考訳(メタデータ) (2024-12-09T13:38:19Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - Bi-parametric prostate MR image synthesis using pathology and
sequence-conditioned stable diffusion [3.290987481767681]
テキストに条件付けされた多列前立腺MR画像のための画像合成機構を提案する。
我々は、ペア化されたデータに条件付けされた画像に条件付けされたペア化されたバイパラメトリック画像を生成する。
前立腺癌を疑う症例の2次元画像スライスを用いて本法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-03T17:24:39Z) - Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization [0.8599177028761124]
この研究は、合成眼底画像を生成するために10の異なるGANアーキテクチャをAMDなしで比較する。
StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
論文 参考訳(メタデータ) (2022-03-25T18:42:20Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Perception Consistency Ultrasound Image Super-resolution via
Self-supervised CycleGAN [63.49373689654419]
自己スーパービジョンとサイクル生成対向ネットワーク(CycleGAN)に基づく新しい知覚整合超音波画像超解像法を提案する。
まず,検査用超音波LR画像のHR父子とLR子を画像強調により生成する。
次に、LR-SR-LRとHR-LR-SRのサイクル損失と判別器の対角特性をフル活用して、より知覚的に一貫性のあるSR結果を生成する。
論文 参考訳(メタデータ) (2020-12-28T08:24:04Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。