論文の概要: PRAD: Periapical Radiograph Analysis Dataset and Benchmark Model Development
- arxiv url: http://arxiv.org/abs/2504.07760v1
- Date: Thu, 10 Apr 2025 13:58:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:24:42.311973
- Title: PRAD: Periapical Radiograph Analysis Dataset and Benchmark Model Development
- Title(参考訳): PRAD:根尖部X線写真解析データセットとベンチマークモデル開発
- Authors: Zhenhuan Zhou, Yuchen Zhang, Ruihong Xu, Xuansen Zhao, Tao Li,
- Abstract要約: PRAD-10Kは根尖部X線画像解析のためのデータセットである。
本データセットは, 専門歯科医が提供した画素レベルのアノテーションを用いて, 1万枚の近医用X線画像から構成する。
我々はPRセグメンテーションタスクのベンチマークを構築するためにPRNetというDLネットワークを導入した。
- 参考スコア(独自算出の注目度): 4.8456464353553175
- License:
- Abstract: Deep learning (DL), a pivotal technology in artificial intelligence, has recently gained substantial traction in the domain of dental auxiliary diagnosis. However, its application has predominantly been confined to imaging modalities such as panoramic radiographs and Cone Beam Computed Tomography, with limited focus on auxiliary analysis specifically targeting Periapical Radiographs (PR). PR are the most extensively utilized imaging modality in endodontics and periodontics due to their capability to capture detailed local lesions at a low cost. Nevertheless, challenges such as resolution limitations and artifacts complicate the annotation and recognition of PR, leading to a scarcity of publicly available, large-scale, high-quality PR analysis datasets. This scarcity has somewhat impeded the advancement of DL applications in PR analysis. In this paper, we present PRAD-10K, a dataset for PR analysis. PRAD-10K comprises 10,000 clinical periapical radiograph images, with pixel-level annotations provided by professional dentists for nine distinct anatomical structures, lesions, and artificial restorations or medical devices, We also include classification labels for images with typical conditions or lesions. Furthermore, we introduce a DL network named PRNet to establish benchmarks for PR segmentation tasks. Experimental results demonstrate that PRNet surpasses previous state-of-the-art medical image segmentation models on the PRAD-10K dataset. The codes and dataset will be made publicly available.
- Abstract(参考訳): 人工知能における重要な技術であるDeep Learning (DL)は、最近歯科補綴診断の分野で大きな注目を集めている。
しかし、その応用は主にパノラマ線写真やコーンビームCTなどの画像モダリティに限られており、近医用放射線写真(PR)を対象とする補助分析に限られている。
PRは、歯内療法や歯周治療において、より詳細な局所病変を低コストで捉える能力により、最も広く利用されている画像モダリティである。
それでも、解像度制限やアーティファクトといった課題はPRのアノテーションと認識を複雑にし、公開可能な大規模で高品質なPR分析データセットが不足している。
この不足は、PR分析におけるDLアプリケーションの進歩を幾らか妨げている。
本稿では,PR解析のためのデータセットであるPRAD-10Kを提案する。
PRAD-10Kは1万枚の臨床画像からなり,9つの解剖学的構造,病変,人工修復,医療機器に対して,プロの歯科医が画素レベルのアノテーションを付与すると共に,典型的疾患や病変を有する画像の分類ラベルも含む。
さらに,PRセグメンテーションタスクのベンチマークを構築するために,PRNetというDLネットワークを導入する。
実験の結果,PRNetは従来のPRAD-10Kデータセットの医療画像セグメンテーションモデルを上回ることがわかった。
コードとデータセットは一般公開される予定だ。
関連論文リスト
- A foundation model for generalizable disease diagnosis in chest X-ray images [40.9095393430871]
CXRBaseは,非ラベリングなCXR画像から多目的表現を学習するための基礎モデルである。
CXRBaseは1.04百万の未ラベルのCXRイメージのデータセットでトレーニングされている。
ラベル付きデータで微調整され、疾患検出の性能を高める。
論文 参考訳(メタデータ) (2024-10-11T14:41:27Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Benchmarking Embedding Aggregation Methods in Computational Pathology: A Clinical Data Perspective [32.93871326428446]
人工知能(AI)の最近の進歩は、医療画像と計算病理に革命をもたらしている。
デジタル全スライド画像(WSI)の解析における一定の課題は、何万ものタイルレベルの画像埋め込みをスライドレベルの表現に集約する問題である。
本研究は,9つの臨床的課題を対象とした10種類のスライドレベルのアグリゲーション手法のベンチマーク分析を行った。
論文 参考訳(メタデータ) (2024-07-10T17:00:57Z) - Leveraging Foundation Models for Content-Based Medical Image Retrieval in Radiology [0.14631663747888957]
コンテンツに基づく画像検索は、放射線学における診断支援と医学研究を大幅に改善する可能性がある。
現在のCBIRシステムは、特定の病態の専門化による限界に直面しており、実用性は制限されている。
本稿では,コンテンツに基づく医用画像検索のための特徴抽出器として視覚基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:06:45Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Optimising Chest X-Rays for Image Analysis by Identifying and Removing
Confounding Factors [49.005337470305584]
新型コロナウイルス(COVID-19)のパンデミック(パンデミック)の間、新型コロナウイルス(COVID-19)の診断のための緊急設定で実施される画像の量は、臨床用CXRの取得が広範囲に及んだ。
公開データセット内の臨床的に取得されたCXRの変動品質は、アルゴリズムのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、新型コロナウイルスの胸部X線データセットを前処理し、望ましくないバイアスを取り除くための、シンプルで効果的なステップワイズアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-22T13:57:04Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - RadTex: Learning Efficient Radiograph Representations from Text Reports [7.090896766922791]
我々は,放射線学報告を利用して,限られたラベル付きデータを用いた医用画像分類性能を向上させるための,データ効率のよい学習フレームワークを構築した。
本モデルは,ラベル付きトレーニングデータに制限がある場合,ImageNetによる事前学習よりも高い分類性能を実現する。
論文 参考訳(メタデータ) (2022-08-05T15:06:26Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Application of DatasetGAN in medical imaging: preliminary studies [10.260087683496431]
ジェネレーティブ・ディベサール・ネットワーク(GAN)は医用画像の多くの可能性について広く研究されている。
datasetGANは、高品質なセグメンテーションイメージを合成できるモダンなGANをベースにした、最近提案されたフレームワークである。
医療画像への応用に焦点を当てた研究は発表されていない。
論文 参考訳(メタデータ) (2022-02-27T22:03:20Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。