論文の概要: OMNI-Dent: Towards an Accessible and Explainable AI Framework for Automated Dental Diagnosis
- arxiv url: http://arxiv.org/abs/2602.07041v1
- Date: Tue, 03 Feb 2026 22:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.393239
- Title: OMNI-Dent: Towards an Accessible and Explainable AI Framework for Automated Dental Diagnosis
- Title(参考訳): OMNI-Dent: 歯科診断自動化のためのアクセシブルで説明可能なAIフレームワーク
- Authors: Leeje Jang, Yao-Yi Chiang, Angela M. Hastings, Patimaporn Pungchanchaikul, Martha B. Lucas, Emily C. Schultz, Jeffrey P. Louie, Mohamed Estai, Wen-Chen Wang, Ryan H. L. Ip, Boyen Huang,
- Abstract要約: 我々は,臨床推論の原理をVLM(Vision-Language Model)ベースのパイプラインに組み込んだ,データ効率が高く説明可能な診断フレームワークであるOMNI-Dentを提案する。
このフレームワークは、マルチビューのスマートフォン写真で動作し、歯科専門家の診断を埋め込み、汎用的なVLMを誘導し、VLMを歯科固有の微調整なしで歯科レベルの評価を行う。
- 参考スコア(独自算出の注目度): 2.194768059720059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate dental diagnosis is essential for oral healthcare, yet many individuals lack access to timely professional evaluation. Existing AI-based methods primarily treat diagnosis as a visual pattern recognition task and do not reflect the structured clinical reasoning used by dental professionals. These approaches also require large amounts of expert-annotated data and often struggle to generalize across diverse real-world imaging conditions. To address these limitations, we present OMNI-Dent, a data-efficient and explainable diagnostic framework that incorporates clinical reasoning principles into a Vision-Language Model (VLM)-based pipeline. The framework operates on multi-view smartphone photographs,embeds diagnostic heuristics from dental experts, and guides a general-purpose VLM to perform tooth-level evaluation without dental-specific fine-tuning of the VLM. By utilizing the VLM's existing visual-linguistic capabilities, OMNI-Dent aims to support diagnostic assessment in settings where curated clinical imaging is unavailable. Designed as an early-stage assistive tool, OMNI-Dent helps users identify potential abnormalities and determine when professional evaluation may be needed, offering a practical option for individuals with limited access to in-person care.
- Abstract(参考訳): 正確な歯科診断は口腔医療に不可欠であるが、多くの個人はタイムリーな専門的評価を受けていない。
既存のAIベースの手法は、主に視覚的パターン認識タスクとしての診断を扱い、歯科専門医が使用する構造化された臨床推論を反映しない。
これらのアプローチはまた、大量の専門家アノテートデータを必要とし、しばしば様々な現実世界の撮像条件をまたいで一般化するのに苦労する。
これらの制約に対処するために,臨床推論の原則をVLM(Vision-Language Model)ベースのパイプラインに組み込んだ,データ効率が高く説明可能な診断フレームワークであるOMNI-Dentを提案する。
本フレームワークは, マルチビューのスマートフォン写真で動作し, 歯科専門家の診断ヒューリスティックスを埋め込み, 汎用的なVLMを誘導し, 歯科特異的なVLMの微調整を行なわずに歯面評価を行う。
VLMの既存の視覚言語機能を活用することで、OMNI-Dentは、キュレートされた臨床画像が利用できない環境で診断アセスメントをサポートすることを目指している。
早期支援ツールとして設計されたOMNI-Dentは、ユーザーが潜在的な異常を識別し、いつ専門的な評価が必要かを決定するのに役立つ。
関連論文リスト
- Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - Towards Generalist Intelligence in Dentistry: Vision Foundation Models for Oral and Maxillofacial Radiology [22.124686092997717]
DentVFMは歯科医療用に設計された視覚基礎モデル(VFM)の最初のファミリーである。
幅広い歯科応用のためのタスク非依存の視覚表現を生成する。
それは印象的な一般知性を示し、多様な歯科作業に対する堅牢な一般化を実証している。
論文 参考訳(メタデータ) (2025-10-16T10:24:23Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Test-Time-Scaling for Zero-Shot Diagnosis with Visual-Language Reasoning [37.37330596550283]
視覚言語モデルを用いた信頼性のある医用画像診断のためのフレームワークを提案する。
テストタイムスケーリング戦略は、複数の候補出力を信頼性のある最終診断に集約する。
様々な医用画像モダリティにまたがるアプローチを評価する。
論文 参考訳(メタデータ) (2025-06-11T22:23:38Z) - MedAgent-Pro: Towards Evidence-based Multi-modal Medical Diagnosis via Reasoning Agentic Workflow [14.478357882578234]
現代医学では、臨床診断は主にテキストおよび視覚データの包括的分析に依存している。
大規模視覚言語モデル(VLM)およびエージェントベース手法の最近の進歩は、医学的診断に大きな可能性を秘めている。
現代医学における診断原理に従う新しいエージェント推論パラダイムであるMedAgent-Proを提案する。
論文 参考訳(メタデータ) (2025-03-21T14:04:18Z) - Beyond Direct Diagnosis: LLM-based Multi-Specialist Agent Consultation
for Automatic Diagnosis [30.943705201552643]
本研究では,潜在的な疾患に対するエージェントの確率分布を適応的に融合させることにより,現実世界の診断過程をモデル化する枠組みを提案する。
提案手法では,パラメータ更新とトレーニング時間を大幅に短縮し,効率と実用性を向上する。
論文 参考訳(メタデータ) (2024-01-29T12:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。