論文の概要: Towards Better Surgical Instrument Segmentation in Endoscopic Vision:
Multi-Angle Feature Aggregation and Contour Supervision
- arxiv url: http://arxiv.org/abs/2002.10675v2
- Date: Tue, 11 Aug 2020 03:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:47:11.416340
- Title: Towards Better Surgical Instrument Segmentation in Endoscopic Vision:
Multi-Angle Feature Aggregation and Contour Supervision
- Title(参考訳): 内視鏡視下手術器具の分節化を目指して--多角的特徴集合と輪郭監督
- Authors: Fangbo Qin, Shan Lin, Yangming Li, Randall A. Bly, Kris S. Moe, Blake
Hannaford
- Abstract要約: 本稿では、現在のディープニューラルネットワーク(DNN)セグメンテーションモデルを改善するための汎用的な埋め込み可能なアプローチを提案する。
本手法は,外科医の手術から収集したSinus-Surgeryデータセットのアブレーション実験により検証した。
- 参考スコア(独自算出の注目度): 22.253074722129053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and real-time surgical instrument segmentation is important in the
endoscopic vision of robot-assisted surgery, and significant challenges are
posed by frequent instrument-tissue contacts and continuous change of
observation perspective. For these challenging tasks more and more deep neural
networks (DNN) models are designed in recent years. We are motivated to propose
a general embeddable approach to improve these current DNN segmentation models
without increasing the model parameter number. Firstly, observing the limited
rotation-invariance performance of DNN, we proposed the Multi-Angle Feature
Aggregation (MAFA) method, leveraging active image rotation to gain richer
visual cues and make the prediction more robust to instrument orientation
changes. Secondly, in the end-to-end training stage, the auxiliary contour
supervision is utilized to guide the model to learn the boundary awareness, so
that the contour shape of segmentation mask is more precise. The proposed
method is validated with ablation experiments on the novel Sinus-Surgery
datasets collected from surgeons' operations, and is compared to the existing
methods on a public dataset collected with a da Vinci Xi Robot.
- Abstract(参考訳): ロボット支援手術の内視鏡視において,精密かつリアルタイムな手術器具分割が重要であり,頻繁な器質接触と観察視点の連続的変化によって大きな課題が生じる。
これらの課題に対して、近年、より深いニューラルネットワーク(DNN)モデルが設計されている。
モデルパラメータを増大させることなく、現在のDNNセグメンテーションモデルを改善する汎用的な埋め込み可能なアプローチを提案する。
まず, dnnの限定的な回転非分散性能を観測し, アクティブな回転を利用してよりリッチな視覚手がかりを得て, 計測方向の変化に対してより頑健な予測を行うマルチアングル特徴集約 (mafa) 法を提案した。
第二に、エンド・ツー・エンドのトレーニング段階では、補助輪郭監督を利用してモデルに境界認識を学習させ、セグメンテーションマスクの輪郭形状をより正確にする。
提案手法は,外科医の手術から収集したSinus-Surgeryデータセットのアブレーション実験により検証され,da Vinci Xi Robotで収集した公開データセットの既存手法と比較された。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Enhancing AI Diagnostics: Autonomous Lesion Masking via Semi-Supervised Deep Learning [1.4053129774629076]
本研究では,乳房超音波(US)画像における乳房病変の鑑別を目的とした,関心領域(ROI)を自律的に生成することを目的とした,教師なし領域適応手法を提案する。
我々の半教師付き学習アプローチは、真のアノテーションを持つ小さな母乳USデータセットで訓練された原始モデルを利用する。
このモデルはドメイン適応タスクのために反復的に洗練され、当社のプライベートな無注釈乳房データセットに擬似マスクを生成します。
論文 参考訳(メタデータ) (2024-04-18T18:25:00Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Data Augmentation-Based Unsupervised Domain Adaptation In Medical
Imaging [0.709016563801433]
脳MRI領域分割における堅牢な領域適応のための教師なし手法を提案する。
その結果,提案手法は高い精度を実現し,幅広い適用性を示し,各種タスクにおけるドメインシフトに対する顕著な堅牢性を示した。
論文 参考訳(メタデータ) (2023-08-08T17:00:11Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Progressive Adversarial Semantic Segmentation [11.323677925193438]
深い畳み込みニューラルネットワークは、完全な監視が与えられた場合、非常によく機能する。
画像解析タスクのための完全教師付きモデルの成功は、大量のラベル付きデータの入手に限られる。
本稿では,新しい医用画像分割モデル,Progressive Adrial Semantic(PASS)を提案する。
論文 参考訳(メタデータ) (2020-05-08T22:48:00Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。