論文の概要: Dental CLAIRES: Contrastive LAnguage Image REtrieval Search for Dental
Research
- arxiv url: http://arxiv.org/abs/2306.15651v1
- Date: Tue, 27 Jun 2023 17:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 12:23:29.679952
- Title: Dental CLAIRES: Contrastive LAnguage Image REtrieval Search for Dental
Research
- Title(参考訳): 歯科臨床研究のための対照的なLanguage Image Retrieval Search
- Authors: Tanjida Kabir, Luyao Chen, Muhammad F Walji, Luca Giancardo, Xiaoqian
Jiang, Shayan Shams
- Abstract要約: 提案フレームワークであるContrastive LAnguage Image Retrieval Search for Dental Research, Dental CLAIRESは,テキストクエリに基づいて最適なマッチング画像を取得する。
我々のモデルはヒット@3比96%、平均相反ランク(MRR)0.82を達成しました。
- 参考スコア(独自算出の注目度): 6.628588447133907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning about diagnostic features and related clinical information from
dental radiographs is important for dental research. However, the lack of
expert-annotated data and convenient search tools poses challenges. Our primary
objective is to design a search tool that uses a user's query for oral-related
research. The proposed framework, Contrastive LAnguage Image REtrieval Search
for dental research, Dental CLAIRES, utilizes periapical radiographs and
associated clinical details such as periodontal diagnosis, demographic
information to retrieve the best-matched images based on the text query. We
applied a contrastive representation learning method to find images described
by the user's text by maximizing the similarity score of positive pairs (true
pairs) and minimizing the score of negative pairs (random pairs). Our model
achieved a hit@3 ratio of 96% and a Mean Reciprocal Rank (MRR) of 0.82. We also
designed a graphical user interface that allows researchers to verify the
model's performance with interactions.
- Abstract(参考訳): 歯科医用X線写真から診断特徴と臨床情報を学ぶことは歯学研究にとって重要である。
しかし、専門家による注釈付きデータと便利な検索ツールの欠如が課題となっている。
本研究の目的は,ユーザの問合せを口頭調査に利用する検索ツールの設計である。
提案フレームワークであるContrastive LAnguage Image Retrieval Search for Dental Research, Dental CLAIRESは, 歯周診断, 人口統計情報など, 根尖部X線写真と関連する臨床情報を用いて, テキストクエリに基づいて最適な画像を取得する。
本研究では,正ペア(真のペア)の類似度スコアを最大化し,負ペア(ランダムペア)のスコアを最小化することにより,ユーザのテキストで記述した画像を見つけるために,コントラスト表現学習手法を適用した。
我々のモデルはヒット@3比96%、平均相反ランク(MRR)0.82を達成しました。
我々はまた、研究者がモデルの性能と相互作用を検証できるグラフィカルなユーザインタフェースを設計した。
関連論文リスト
- Semi-supervised classification of dental conditions in panoramic radiographs using large language model and instance segmentation: A real-world dataset evaluation [6.041146512190833]
13種類の歯科疾患をパノラマX線写真で分類するための半教師付き学習フレームワークが提案されている。
このソリューションは、ジュニアスペシャリストに匹敵する精度のレベルを示した。
論文 参考訳(メタデータ) (2024-06-25T19:56:12Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Multiclass Segmentation using Teeth Attention Modules for Dental X-ray
Images [8.041659727964305]
本研究では,スイニングトランスフォーマーとTABを用いたM-Net様構造を取り入れた新しい歯のセグメンテーションモデルを提案する。
提案したTABは、歯の複雑な構造に特化するユニークな注意機構を利用する。
提案アーキテクチャは,各歯とその周辺構造を正確に定義し,局所的およびグローバルな文脈情報を効果的に取得する。
論文 参考訳(メタデータ) (2023-11-07T06:20:34Z) - AI-Dentify: Deep learning for proximal caries detection on bitewing x-ray -- HUNT4 Oral Health Study [0.0]
人工知能の使用は、噛まれた画像の迅速かつ情報的な分析を提供することで、診断を支援する可能性がある。
HUNT4口腔健康研究から得られた13,887個の噛み付きデータセットは、6人の異なる専門家によって個別に注釈付けされた。
同じ6人の歯科医が共同で注釈を付けた197枚の画像のコンセンサスデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-09-30T12:17:36Z) - Generative Adversarial Networks for Dental Patient Identity Protection
in Orthodontic Educational Imaging [0.0]
本研究は, 歯科患者イメージを効果的に識別するためのGANインバージョン技術を提案する。
この手法は, 重要な歯科的特徴を保ちながら, プライバシの懸念に対処し, 歯科教育や研究に有用な資源を創出する。
論文 参考訳(メタデータ) (2023-07-05T04:14:57Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Construction of unbiased dental template and parametric dental model for
precision digital dentistry [46.459289444783956]
CBCT画像から正確な歯科用アトラスを作製し, 歯のセグメンテーションを誘導するアンバイアスド歯科用テンプレートを開発した。
実際の被写体のCBCT画像159枚を収集して施工する。
論文 参考訳(メタデータ) (2023-04-07T09:39:03Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - OdontoAI: A human-in-the-loop labeled data set and an online platform to
boost research on dental panoramic radiographs [53.67409169790872]
本研究では, 歯科用パノラマX線画像の公開データセットの構築について述べる。
我々はHuman-in-the-loop(HITL)の概念の恩恵を受け、ラベリング手順を高速化する。
その結果,HITLによるラベル付け時間短縮率は51%であり,連続作業時間390時間以上節約できた。
論文 参考訳(メタデータ) (2022-03-29T18:57:23Z) - PaXNet: Dental Caries Detection in Panoramic X-ray using Ensemble
Transfer Learning and Capsule Classifier [8.164433158925593]
多くの場合、画像品質の低さなどの異なる理由から、X線を用いた歯列の識別は困難である。
そこで本研究では,パノラマ画像中の歯列を初めて検出する自動診断システムを提案する。
提案モデルは、X線から関連する特徴を抽出し、カプセルネットワークを用いて予測結果を描画するトランスファーラーニングにより、事前訓練された様々な深層学習モデルの利点を享受する。
論文 参考訳(メタデータ) (2020-12-26T03:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。