論文の概要: UGCANet: A Unified Global Context-Aware Transformer-based Network with
Feature Alignment for Endoscopic Image Analysis
- arxiv url: http://arxiv.org/abs/2307.06260v1
- Date: Wed, 12 Jul 2023 16:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:33:34.673069
- Title: UGCANet: A Unified Global Context-Aware Transformer-based Network with
Feature Alignment for Endoscopic Image Analysis
- Title(参考訳): UGCANet: 内視鏡画像解析のための特徴アライメント付きグローバルコンテキスト対応トランスフォーマーネットワーク
- Authors: Pham Vu Hung, Nguyen Duy Manh, Nguyen Thi Oanh, Nguyen Thi Thuy, Dinh
Viet Sang
- Abstract要約: 本稿では,複数のタスクを同時に実行するように設計されたトランスフォーマーに基づく新しいディープニューラルネットワークを提案する。
提案するグローバルなコンテキスト認識モジュールは,機能アライメントブロックとともに強力なMiTバックボーンを活用することで,ネットワークの表現能力を向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gastrointestinal endoscopy is a medical procedure that utilizes a flexible
tube equipped with a camera and other instruments to examine the digestive
tract. This minimally invasive technique allows for diagnosing and managing
various gastrointestinal conditions, including inflammatory bowel disease,
gastrointestinal bleeding, and colon cancer. The early detection and
identification of lesions in the upper gastrointestinal tract and the
identification of malignant polyps that may pose a risk of cancer development
are critical components of gastrointestinal endoscopy's diagnostic and
therapeutic applications. Therefore, enhancing the detection rates of
gastrointestinal disorders can significantly improve a patient's prognosis by
increasing the likelihood of timely medical intervention, which may prolong the
patient's lifespan and improve overall health outcomes. This paper presents a
novel Transformer-based deep neural network designed to perform multiple tasks
simultaneously, thereby enabling accurate identification of both upper
gastrointestinal tract lesions and colon polyps. Our approach proposes a unique
global context-aware module and leverages the powerful MiT backbone, along with
a feature alignment block, to enhance the network's representation capability.
This novel design leads to a significant improvement in performance across
various endoscopic diagnosis tasks. Extensive experiments demonstrate the
superior performance of our method compared to other state-of-the-art
approaches.
- Abstract(参考訳): 消化器内視鏡は、カメラやその他の器具を備えた柔軟なチューブを使用して消化器を調べる医療処置である。
この最小侵襲のテクニックは、炎症性腸疾患、消化管出血、大腸癌など、さまざまな消化管疾患の診断および管理を可能にする。
上部消化管病変の早期発見と診断,悪性ポリープの鑑別は消化管内視鏡の診断・治療上の重要な構成要素である。
したがって、消化器疾患の検出率の向上は、患者の寿命を延ばし、全体の健康状態を改善するタイムリーな医療介入の可能性を高めることにより、患者の予後を著しく改善することができる。
本稿では,複数のタスクを同時に実行し,上部消化管病変と大腸ポリープの同定を可能にする,トランスフォーマーベースの深層ニューラルネットワークを提案する。
提案するグローバルなコンテキスト認識モジュールは,機能アライメントブロックとともに強力なMiTバックボーンを活用することで,ネットワークの表現能力を向上する。
この新しい設計は、様々な内視鏡的診断タスクで性能が大幅に向上する。
他の最先端手法と比較して,本手法の優れた性能を示す。
関連論文リスト
- Foundational Models for Pathology and Endoscopy Images: Application for Gastric Inflammation [0.0]
ファンデーションモデル(FM)は、多様なデータに基づいて訓練され、幅広いユースケースに適用できる機械学習モデルまたはディープラーニングモデルである。
FMは内視鏡とそれに続く病理画像解析の精度を高めるための有望なソリューションを提供する。
本総説は,FMを臨床実践に組み込むことの複雑さをナビゲートする上で,研究者や実践者にとってのロードマップを提供することを目的としている。
論文 参考訳(メタデータ) (2024-06-26T10:51:44Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Automatic diagnosis of knee osteoarthritis severity using Swin
transformer [55.01037422579516]
変形性膝関節症 (KOA) は膝関節の慢性的な痛みと硬直を引き起こす疾患である。
我々は,Swin Transformer を用いて KOA の重大度を予測する自動手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T09:49:30Z) - Detecting the Sensing Area of A Laparoscopic Probe in Minimally Invasive
Cancer Surgery [6.0097646269887965]
外科腫瘍学では、外科医がリンパ節を同定し、がんを完全に切除することは困難である。
新しいテザリングラパロスコープガンマ検出器を用いて、術前に注入された放射線を局在させる。
ガンマ活動の可視化は、プローブが非イメージングであり、組織表面の活性を視覚的に示さないため、オペレーターに提示することが困難である。
論文 参考訳(メタデータ) (2023-07-07T15:33:49Z) - ColNav: Real-Time Colon Navigation for Colonoscopy [0.0]
本稿では,光学的大腸内視鏡(OC)のための新しいリアルタイムナビゲーションシステムを提案する。
提案システムでは,大腸の非折りたたみ表現と,非検査領域に指示される局所指標の両方をリアルタイムに表示する手法を用いている。
以上の結果から,高ポリープリコール (PR) と高信頼度が得られた。
論文 参考訳(メタデータ) (2023-06-07T09:09:35Z) - Intra-operative Brain Tumor Detection with Deep Learning-Optimized
Hyperspectral Imaging [37.21885467891782]
グリオーマ(内因性脳腫瘍)の手術は、病変の浸潤性により困難である。
リアルタイム, 術中, ラベルフリー, 広視野の道具は使用できない。
術中指導の可能性を秘めた癌切除のための深層学習型診断ツールを構築した。
論文 参考訳(メタデータ) (2023-02-06T15:52:03Z) - Multi-Scale Hybrid Vision Transformer for Learning Gastric Histology:
AI-Based Decision Support System for Gastric Cancer Treatment [50.89811515036067]
胃内視鏡検査は、早期に適切な胃癌(GC)治療を判定し、GC関連死亡率を低下させる有効な方法である。
本稿では,一般のGC治療指導と直接一致する5つのGC病理のサブ分類を可能にする実用的なAIシステムを提案する。
論文 参考訳(メタデータ) (2022-02-17T08:33:52Z) - Practical X-ray Gastric Cancer Screening Using Refined Stochastic Data Augmentation and Hard Boundary Box Training [2.254041925375415]
提案システムは,90.2%の胃癌に対する感度(SE)を専門家(85.5%)より高い精度で達成する。
検出された5つの候補ボックスのうち2つは癌であり、画像当たり0.01秒の速度で画像を処理しながら高い精度を維持している。
論文 参考訳(メタデータ) (2021-08-18T14:04:52Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。