論文の概要: Data-Centric Learning Framework for Real-Time Detection of Aiming Beam in Fluorescence Lifetime Imaging Guided Surgery
- arxiv url: http://arxiv.org/abs/2411.07395v1
- Date: Mon, 11 Nov 2024 22:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:21:39.081543
- Title: Data-Centric Learning Framework for Real-Time Detection of Aiming Beam in Fluorescence Lifetime Imaging Guided Surgery
- Title(参考訳): 蛍光画像ガイド下手術におけるビームリアルタイム検出のためのデータ中心学習フレームワーク
- Authors: Mohamed Abul Hassan, Pu Sun, Xiangnan Zhou, Lisanne Kraft, Kelsey T Hadfield, Katjana Ehrlich, Jinyi Qi, Andrew Birkeland, Laura Marcu,
- Abstract要約: 本研究では,FLImを用いたリアルタイム手術指導のための新しいデータ中心アプローチを提案する。
第一の課題は,特に経口ロボット手術(TORS)における手術環境における複雑で変動的な状態から生じる。
ラベルノイズの最小化と検出ロバスト性の向上により精度を向上させるデータ中心のトレーニング戦略を用いて,インスタンスセグメンテーションモデルを開発した。
- 参考スコア(独自算出の注目度): 3.8261910636994925
- License:
- Abstract: This study introduces a novel data-centric approach to improve real-time surgical guidance using fiber-based fluorescence lifetime imaging (FLIm). A key aspect of the methodology is the accurate detection of the aiming beam, which is essential for localizing points used to map FLIm measurements onto the tissue region within the surgical field. The primary challenge arises from the complex and variable conditions encountered in the surgical environment, particularly in Transoral Robotic Surgery (TORS). Uneven illumination in the surgical field can cause reflections, reduce contrast, and results in inconsistent color representation, further complicating aiming beam detection. To overcome these challenges, an instance segmentation model was developed using a data-centric training strategy that improves accuracy by minimizing label noise and enhancing detection robustness. The model was evaluated on a dataset comprising 40 in vivo surgical videos, demonstrating a median detection rate of 85%. This performance was maintained when the model was integrated in a clinical system, achieving a similar detection rate of 85% during TORS procedures conducted in patients. The system's computational efficiency, measured at approximately 24 frames per second (FPS), was sufficient for real-time surgical guidance. This study enhances the reliability of FLIm-based aiming beam detection in complex surgical environments, advancing the feasibility of real-time, image-guided interventions for improved surgical precision
- Abstract(参考訳): 本研究では,FLIm(Fiber-based fluorescence lifetime imaging)を用いてリアルタイムの手術指導を改善するための新しいデータ中心アプローチを提案する。
この手法の重要な側面は、FLIm測定を外科領域内の組織領域にマッピングするために用いられる点の局在化に欠かせない目標ビームの正確な検出である。
主な課題は、外科環境、特に経口ロボット手術(TORS)で遭遇する複雑で変動的な状態から生じる。
外科領域における不均一な照明は反射を引き起こし、コントラストを減少させ、一貫性のない色表現をもたらし、さらに目標ビーム検出を複雑にする。
これらの課題を克服するため,ラベルノイズの最小化と検出堅牢性の向上により精度を向上させるデータ中心トレーニング戦略を用いて,インスタンスセグメンテーションモデルを開発した。
本モデルは, 生体内手術ビデオ40本からなるデータセットを用いて評価し, 85%の中央値検出率を示した。
この成績は, 臨床システムにモデルが組み込まれた際に維持され, 患者のTORS施行時に同様の検出率が85%に達した。
このシステムの計算効率は約24フレーム/秒(FPS)であり、リアルタイムの外科的指導に十分であった。
本研究は, 複雑な手術環境下でのFLImを用いた目標ビーム検出の信頼性を高め, リアルタイム画像誘導による手術精度向上の実現可能性を高めるものである。
関連論文リスト
- Deep intra-operative illumination calibration of hyperspectral cameras [73.08443963791343]
ハイパースペクトルイメージング (HSI) は, 様々な手術応用に期待できる新しい画像モダリティとして出現している。
手術室における照明条件の動的変化がHSIアプリケーションの性能に劇的な影響を及ぼすことを示す。
手術中におけるハイパースペクトル画像の自動再構成のための新しい学習ベースアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-11T08:30:03Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Efficient Domain Adaptation for Endoscopic Visual Odometry [28.802915155343964]
ドメイン適応は,術前計画領域を術中実領域にブリッジして眼科情報を学習する,有望なアプローチを提供する。
本研究では,術前計画からテスト段階までの時間を5分未満に圧縮する,内視鏡的視覚計測のための効率的なニューラルスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-16T08:57:00Z) - Redefining the Laparoscopic Spatial Sense: AI-based Intra- and
Postoperative Measurement from Stereoimages [3.2039076408339353]
立体視を用いた腹腔鏡計測のための人体AIを用いた新しい手法を開発した。
本研究は, 総合的質的要件分析に基づいて, 包括的測定法を提案する。
提案手法が1mm以下の誤差で精度の高い距離測定を実現する可能性について概説した。
論文 参考訳(メタデータ) (2023-11-16T10:19:04Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Real-Time Segmentation of Non-Rigid Surgical Tools based on Deep
Learning and Tracking [12.408997542491152]
リアルタイムツールセグメンテーションはコンピュータ支援手術システムにおいて欠かせない要素である。
本稿では,FCN(Fully Convolutional Networks)と光フロートラッキングに基づく新しいリアルタイム自動手法を提案する。
論文 参考訳(メタデータ) (2020-09-07T11:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。