論文の概要: DentalX: Context-Aware Dental Disease Detection with Radiographs
- arxiv url: http://arxiv.org/abs/2601.08797v1
- Date: Tue, 13 Jan 2026 18:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.327786
- Title: DentalX: Context-Aware Dental Disease Detection with Radiographs
- Title(参考訳): 歯科用X線写真を用いたコンテキスト認識型歯科疾患検出
- Authors: Zhi Qin Tan, Xiatian Zhu, Owen Addison, Yunpeng Li,
- Abstract要約: 放射線写真から歯科疾患を診断することは、診断証拠の微妙な性質のため、時間がかかり、困難である。
既存の方法は物体検出モデルに依存しており、視覚的支援がはるかに少ない歯の疾患を検出するのに苦労している。
本稿では,新しいコンテキスト認識型歯科疾患検出手法であるbf DentalXを提案する。
- 参考スコア(独自算出の注目度): 44.3806898357896
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Diagnosing dental diseases from radiographs is time-consuming and challenging due to the subtle nature of diagnostic evidence. Existing methods, which rely on object detection models designed for natural images with more distinct target patterns, struggle to detect dental diseases that present with far less visual support. To address this challenge, we propose {\bf DentalX}, a novel context-aware dental disease detection approach that leverages oral structure information to mitigate the visual ambiguity inherent in radiographs. Specifically, we introduce a structural context extraction module that learns an auxiliary task: semantic segmentation of dental anatomy. The module extracts meaningful structural context and integrates it into the primary disease detection task to enhance the detection of subtle dental diseases. Extensive experiments on a dedicated benchmark demonstrate that DentalX significantly outperforms prior methods in both tasks. This mutual benefit arises naturally during model optimization, as the correlation between the two tasks is effectively captured. Our code is available at https://github.com/zhiqin1998/DentYOLOX.
- Abstract(参考訳): 放射線写真から歯科疾患を診断することは、診断証拠の微妙な性質のため、時間がかかり、困難である。
既存の方法は、より異なるターゲットパターンを持つ自然画像のために設計された物体検出モデルに依存しており、視覚的支援がはるかに少ない歯の疾患を検出するのに苦労している。
この課題に対処するため,我々は,X線写真に内在する視覚的あいまいさを軽減するために,口腔構造情報を活用する新しい文脈認識型歯科疾患検出手法である {\bf DentalX} を提案する。
具体的には, 歯科解剖学のセマンティックセグメンテーションという補助的課題を学習する構造的コンテキスト抽出モジュールを提案する。
モジュールは、意味のある構造的コンテキストを抽出し、それを一次疾患検出タスクに統合し、微妙な歯科疾患の検出を強化する。
専用ベンチマークでの大規模な実験により、DorchXは両方のタスクにおいて、以前の方法よりも大幅に優れていたことが証明された。
この相互利益は、2つのタスク間の相関が効果的に捕捉されるため、モデル最適化中に自然に生じる。
私たちのコードはhttps://github.com/zhiqin1998/DentYOLOX.comで公開されています。
関連論文リスト
- Adapting Foundation Model for Dental Caries Detection with Dual-View Co-Training [53.77904429789069]
本稿では, 歯列検出のための新しいDual-View Co-TrainingネットワークであるAttention-TNetについて紹介する。
OurTNetは、自動歯肉検出を用いて、パノラマX線画像からのグローバルビューと、収穫した歯肉画像からのローカルビューの2つの補完的なビューを確立する。
両ビューからの情報を効果的に統合するために,Gated Cross-Viewモジュールを導入する。
論文 参考訳(メタデータ) (2025-08-28T14:13:26Z) - Boundary feature fusion network for tooth image segmentation [7.554733074482215]
本稿では, 歯と隣接組織の境界が不明瞭である問題に対処するために, 境界情報を統合した斬新な歯のセグメンテーションネットワークを提案する。
最新のSTSデータチャレンジでは、我々の方法論が厳格にテストされ、合計スコアは0.91だった。
論文 参考訳(メタデータ) (2024-09-06T02:12:21Z) - A Sequential Framework for Detection and Classification of Abnormal
Teeth in Panoramic X-rays [1.8962225869778402]
本報告では,MICCAI 2023におけるパノラマX線検査における歯科審美と診断の解決策について述べる。
本手法は, 異常歯の検出・分類作業に適した多段階の枠組みから構成される。
論文 参考訳(メタデータ) (2023-08-31T13:47:01Z) - YOLOrtho -- A Unified Framework for Teeth Enumeration and Dental Disease
Detection [4.136033167469768]
YOLOrthoは歯列挙と歯科疾患検出のための統合された枠組みである。
我々は,3種類の注釈付きデータからなるDentex Challenge 2023データに基づくモデルを開発した。
このデータを十分に活用し,同時に歯の発見と疾患の同定を学習するために,本研究では,歯に付着する属性として疾患を定式化する。
論文 参考訳(メタデータ) (2023-08-11T06:54:55Z) - Construction of unbiased dental template and parametric dental model for
precision digital dentistry [46.459289444783956]
CBCT画像から正確な歯科用アトラスを作製し, 歯のセグメンテーションを誘導するアンバイアスド歯科用テンプレートを開発した。
実際の被写体のCBCT画像159枚を収集して施工する。
論文 参考訳(メタデータ) (2023-04-07T09:39:03Z) - Developing a Novel Approach for Periapical Dental Radiographs
Segmentation [1.332560004325655]
提案するアルゴリズムは2段階で構成され,第1段階は前処理である。
このアルゴリズムの第2部と第1部は回転度を計算し、歯の隔離に積分投影法を用いる。
実験結果から, このアルゴリズムは頑健であり, 精度が高いことがわかった。
論文 参考訳(メタデータ) (2021-11-13T17:25:35Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Contralaterally Enhanced Networks for Thoracic Disease Detection [120.60868136876599]
胸骨、肺野、気管支管など、胸部左右に類似した構造が多数存在する。
このような類似性は、広義の放射線学者の経験から、胸部X線における疾患の同定に利用することができる。
本稿では,病状提案の特徴表現を強化するために,対向的コンテキスト情報を活用するディープ・エンド・ツー・エンド・モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-09T10:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。