論文の概要: CTT-Net: A Multi-view Cross-token Transformer for Cataract Postoperative
Visual Acuity Prediction
- arxiv url: http://arxiv.org/abs/2212.05794v1
- Date: Mon, 12 Dec 2022 09:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 17:59:16.068560
- Title: CTT-Net: A Multi-view Cross-token Transformer for Cataract Postoperative
Visual Acuity Prediction
- Title(参考訳): CTT-Net:白内障術後視力予測用多視点クロストーケン変換器
- Authors: Jinhong Wang, Jingwen Wang, Tingting Chen, Wenhao Zheng, Zhe Xu,
Xingdi Wu, Wen Xu, Haochao Ying, Danny Chen, and Jian Wu
- Abstract要約: 術後VA予測のための新しいクロストークントランスフォーマーネットワーク(CTT-Net)を提案する。
OCT画像の多視点的特徴を効果的に利用するために,余剰/不要な注意の流れを制限できる横断的注意を発達させる。
術前のVA値を用いて,術後のVA予測により多くの情報を提供し,ビュー間の融合を容易にする。
- 参考スコア(独自算出の注目度): 20.549329151298355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgery is the only viable treatment for cataract patients with visual acuity
(VA) impairment. Clinically, to assess the necessity of cataract surgery,
accurately predicting postoperative VA before surgery by analyzing multi-view
optical coherence tomography (OCT) images is crucially needed. Unfortunately,
due to complicated fundus conditions, determining postoperative VA remains
difficult for medical experts. Deep learning methods for this problem were
developed in recent years. Although effective, these methods still face several
issues, such as not efficiently exploring potential relations between
multi-view OCT images, neglecting the key role of clinical prior knowledge
(e.g., preoperative VA value), and using only regression-based metrics which
are lacking reference. In this paper, we propose a novel Cross-token
Transformer Network (CTT-Net) for postoperative VA prediction by analyzing both
the multi-view OCT images and preoperative VA. To effectively fuse multi-view
features of OCT images, we develop cross-token attention that could restrict
redundant/unnecessary attention flow. Further, we utilize the preoperative VA
value to provide more information for postoperative VA prediction and
facilitate fusion between views. Moreover, we design an auxiliary
classification loss to improve model performance and assess VA recovery more
sufficiently, avoiding the limitation by only using the regression metrics. To
evaluate CTT-Net, we build a multi-view OCT image dataset collected from our
collaborative hospital. A set of extensive experiments validate the
effectiveness of our model compared to existing methods in various metrics.
Code is available at: https://github.com/wjh892521292/Cataract OCT.
- Abstract(参考訳): 手術は白内障の視力障害(va)に対して唯一有効な治療である。
臨床的には、白内障手術の必要性を評価するために、多視点光コヒーレンス断層撮影(OCT)画像を分析して術後VAを正確に予測する必要がある。
残念ながら, 術後VAの判定は, 医療専門家にとって依然として困難である。
近年,この問題の深層学習手法が開発されている。
有効ではあるが、マルチビューのoct画像間の潜在的な関係を効率的に探索しない、臨床事前知識(例えば、術前のva値)の重要役割を無視する、参照を欠いた回帰ベースのメトリクスのみを使用するなど、いくつかの問題に直面している。
本稿では,多視点OCT画像と術前VA画像の両方を分析し,術後VA予測のための新しいクロストークントランスフォーマーネットワーク(CTT-Net)を提案する。
oct画像の多視点特徴を効果的に融合するために,冗長・不要な注意フローを制限できるクロストケン注意手法を開発した。
さらに,術前VA値を用いて,術後VA予測のための情報を提供し,ビュー間の融合を容易にする。
さらに,モデル性能を向上させるために補助的な分類損失を設計し,回帰メトリクスのみを用いて制限を回避し,vaリカバリを十分に評価する。
CTT-Netを評価するために,共同病院から収集した多視点CT画像データセットを構築した。
広範な実験のセットは、さまざまなメトリクスの既存の方法と比較して、モデルの有効性を検証するものです。
コードは、https://github.com/wjh892521292/Cataract OCTで入手できる。
関連論文リスト
- Initial Study On Improving Segmentation By Combining Preoperative CT And Intraoperative CBCT Using Synthetic Data [0.21847754147782888]
コーンビームCT(CBCT)は、コンピュータによる介入を促進するために用いられる。
高品質の術前スキャンが利用可能であることは、改善の可能性を秘めている。
本稿では,CBCTとCTのほぼ一致したスキャンを融合するマルチモーダル学習法を提案する。
論文 参考訳(メタデータ) (2024-12-03T09:08:38Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Multimodal Learning With Intraoperative CBCT & Variably Aligned Preoperative CT Data To Improve Segmentation [0.21847754147782888]
コーンビームCT(CBCT)はコンピュータ支援による介入を促進する重要なツールである。
劣化した画像品質は下流のセグメンテーションに影響を及ぼす可能性があるが、高品質の術前スキャンが利用可能であることは、改善の可能性を示唆している。
本稿では,CBCT と CT のほぼ一致したスキャンを融合させるマルチモーダル学習法を提案し,CBCT の品質と誤調整が最終的なセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-17T15:31:54Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - COVID-19 detection using ViT transformer-based approach from Computed
Tomography Images [0.0]
我々は,CT画像を用いた新型コロナウイルス診断の精度と効率を高めるための新しいアプローチを提案する。
224x224サイズの入力画像に対して設定されたベースViT変換器を用いて、バイナリ分類タスクに適合するように出力を変更する。
本手法では,患者のCTスライスをCOVID-19または非COVID-19に分類し,系統的な患者レベルの予測戦略を実装した。
論文 参考訳(メタデータ) (2023-10-12T09:37:56Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Body Composition Assessment with Limited Field-of-view Computed
Tomography: A Semantic Image Extension Perspective [5.373119949253442]
Field-of-view (FOV) tissue truncation beyond the lungs is common in routine lung screening Computed tomography (CT)
本研究では,入力として画像データのみを必要とする意味的画像拡張の観点から問題を定式化する。
提案した2段階法は, 完全体の推定範囲に基づいて新しいFOV境界を同定し, 脱落した領域の欠損組織を溶出する。
論文 参考訳(メタデータ) (2022-07-13T23:19:22Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Real-time Virtual Intraoperative CT for Image Guided Surgery [13.166023816014777]
本研究は, 仮想的術中CT生成のための3つの方法, 先端運動ベース, 先端軌跡ベース, 計器ベースを提示する。
手術成績は, いずれもDice similarity Coefficient > 86%, F-score > 92%, 精度で改善した。
先端軌跡法は, 外科的完全性評価において, 96.87%の精度で良好な成績を示した。
論文 参考訳(メタデータ) (2021-12-05T16:06:34Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。