論文の概要: Automatic Endoscopic Ultrasound Station Recognition with Limited Data
- arxiv url: http://arxiv.org/abs/2309.11820v1
- Date: Thu, 21 Sep 2023 06:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 16:41:24.987704
- Title: Automatic Endoscopic Ultrasound Station Recognition with Limited Data
- Title(参考訳): 限られたデータを用いた超音波自動位置認識
- Authors: Abhijit Ramesh, Anantha Nandanan, Anantha Nandanan, Priya Nair MD,
Gilad Gressel
- Abstract要約: 膵臓がんは致命的ながん形態であり、世界中のがん関連死亡に大きく貢献する。
医療画像技術の進歩にもかかわらず、膵癌は検出が困難な疾患である。
内視鏡的超音波検査は膵癌を最も効果的に診断するツールである。
膵臓の完全な画像を得るには、内視鏡を複数の「EUSステーション」に誘導することを学ぶ必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pancreatic cancer is a lethal form of cancer that significantly contributes
to cancer-related deaths worldwide. Early detection is essential to improve
patient prognosis and survival rates. Despite advances in medical imaging
techniques, pancreatic cancer remains a challenging disease to detect.
Endoscopic ultrasound (EUS) is the most effective diagnostic tool for detecting
pancreatic cancer. However, it requires expert interpretation of complex
ultrasound images to complete a reliable patient scan. To obtain complete
imaging of the pancreas, practitioners must learn to guide the endoscope into
multiple "EUS stations" (anatomical locations), which provide different views
of the pancreas. This is a difficult skill to learn, involving over 225
proctored procedures with the support of an experienced doctor. We build an
AI-assisted tool that utilizes deep learning techniques to identify these
stations of the stomach in real time during EUS procedures. This
computer-assisted diagnostic (CAD) will help train doctors more efficiently.
Historically, the challenge faced in developing such a tool has been the amount
of retrospective labeling required by trained clinicians. To solve this, we
developed an open-source user-friendly labeling web app that streamlines the
process of annotating stations during the EUS procedure with minimal effort
from the clinicians. Our research shows that employing only 43 procedures with
no hyperparameter fine-tuning obtained a balanced accuracy of 90%, comparable
to the current state of the art. In addition, we employ Grad-CAM, a
visualization technology that provides clinicians with interpretable and
explainable visualizations.
- Abstract(参考訳): 膵がんは致命的ながん形態であり、世界中のがん関連死亡に大きく貢献する。
早期発見は患者の予後と生存率を改善するために不可欠である。
医療画像技術の進歩にもかかわらず、膵癌は検出が困難な疾患である。
内視鏡的超音波検査(eus)は膵癌の診断に最も有効な診断ツールである。
しかし、信頼できる患者スキャンを完了させるためには、複雑な超音波画像の専門的な解釈が必要である。
膵の完全な画像を得るには、内視鏡を複数の「EUSステーション」(解剖学的位置)に誘導し、膵の異なるビューを提供する必要がある。
これは学ぶのが難しいスキルであり、経験豊富な医師の助けを借りて225以上のプロクターの手順が関与している。
我々は、深層学習技術を利用して、EUS手順中の胃のこれらのステーションをリアルタイムで識別するAI支援ツールを構築した。
このコンピュータ支援診断(CAD)は医師の訓練を効率化する。
歴史的に、そのようなツールを開発する上で直面する課題は、訓練された臨床医が必要とするレトロスペクティブのラベル付けの量である。
そこで我々は,EUSプロシージャにおけるアノテート処理のプロセスを,臨床医の最小限の努力で効率化する,オープンソースのユーザフレンドリーなラベリングWebアプリを開発した。
ハイパーパラメータの微調整を行わない43のプロシージャは,現在の技術に匹敵する90%のバランスの取れた精度を得た。
また,臨床医に解釈可能かつ説明可能な可視化を提供する可視化技術であるGrad-CAMを採用している。
関連論文リスト
- Large-scale cervical precancerous screening via AI-assisted cytology whole slide image analysis [11.148919818020495]
頸部がんは婦人科における主要な悪性腫瘍であり続けており、世界規模で女性の健康に永続的な脅威をもたらしている。
Whole Slide Image (WSI) による早期スクリーニングは、このがんの進行を予防し、生存率を向上させるために重要である。
しかし、病理学者の単体検査は、WSI内でレビューする必要がある膨大な数の細胞のために、必然的に偽陰性に悩まされる。
論文 参考訳(メタデータ) (2024-07-28T15:29:07Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Empowering Medical Imaging with Artificial Intelligence: A Review of
Machine Learning Approaches for the Detection, and Segmentation of COVID-19
Using Radiographic and Tomographic Images [2.232567376976564]
2019年以降、コロナウイルスとその新規株の世界的な普及により、新たな感染が急増している。
X線およびCTイメージング技術の使用は、新型コロナウイルスの診断と管理に重要である。
本稿では、機械学習(ML)を用いた新型コロナウイルスの診断のための医療画像の改善手法に焦点を当てた。
論文 参考訳(メタデータ) (2024-01-13T09:17:39Z) - Can GPT-4V(ision) Serve Medical Applications? Case Studies on GPT-4V for
Multimodal Medical Diagnosis [59.35504779947686]
GPT-4VはOpenAIの最新のマルチモーダル診断モデルである。
評価対象は17の人体システムである。
GPT-4Vは、医用画像のモダリティと解剖学を区別する能力を示す。
疾患の診断と包括的報告作成において重大な課題に直面している。
論文 参考訳(メタデータ) (2023-10-15T18:32:27Z) - COVID-Net USPro: An Open-Source Explainable Few-Shot Deep Prototypical
Network to Monitor and Detect COVID-19 Infection from Point-of-Care
Ultrasound Images [66.63200823918429]
COVID-Net USProは、最小限の超音波画像から高精度で新型コロナウイルス陽性の患者を監視し、検出する。
ネットワーク全体では99.65%の精度、99.7%のリコール、99.67%の精度で5発の撮影で訓練された。
論文 参考訳(メタデータ) (2023-01-04T16:05:51Z) - Multi-Scale Hybrid Vision Transformer for Learning Gastric Histology:
AI-Based Decision Support System for Gastric Cancer Treatment [50.89811515036067]
胃内視鏡検査は、早期に適切な胃癌(GC)治療を判定し、GC関連死亡率を低下させる有効な方法である。
本稿では,一般のGC治療指導と直接一致する5つのGC病理のサブ分類を可能にする実用的なAIシステムを提案する。
論文 参考訳(メタデータ) (2022-02-17T08:33:52Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Review of Artificial Intelligence Techniques in Imaging Data
Acquisition, Segmentation and Diagnosis for COVID-19 [71.41929762209328]
新型コロナウイルス感染症(COVID-19)のパンデミックは世界中に広がっている。
X線やCT(Computerd Tomography)などの医用画像は、世界的な新型コロナウイルス対策に欠かせない役割を担っている。
最近登場した人工知能(AI)技術は、画像ツールの力を強化し、医療専門家を支援する。
論文 参考訳(メタデータ) (2020-04-06T15:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。