論文の概要: Arthroscopic Multi-Spectral Scene Segmentation Using Deep Learning
- arxiv url: http://arxiv.org/abs/2103.02465v1
- Date: Wed, 3 Mar 2021 15:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 14:46:26.399541
- Title: Arthroscopic Multi-Spectral Scene Segmentation Using Deep Learning
- Title(参考訳): 深層学習を用いた鏡視下マルチスペクトラルシーンセグメンテーション
- Authors: Shahnewaz Ali, Dr. Yaqub Jonmohamadi, Yu Takeda, Jonathan Roberts,
Ross Crawford, Cameron Brown, Dr. Ajay K. Pandey
- Abstract要約: 膝関節鏡検査は、膝関節の病気を治療するために行われる最小限の侵襲手術(MIS)手順です。
小型カメラから得られた手術部位の視覚情報の欠如は、この手術手順をより複雑にします。
本研究では,複数構造物を分割するシーンセグメンテーション手法を提案する。
- 参考スコア(独自算出の注目度): 2.198760145670348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knee arthroscopy is a minimally invasive surgical (MIS) procedure which is
performed to treat knee-joint ailment. Lack of visual information of the
surgical site obtained from miniaturized cameras make this surgical procedure
more complex. Knee cavity is a very confined space; therefore, surgical scenes
are captured at close proximity. Insignificant context of knee atlas often
makes them unrecognizable as a consequence unintentional tissue damage often
occurred and shows a long learning curve to train new surgeons. Automatic
context awareness through labeling of the surgical site can be an alternative
to mitigate these drawbacks. However, from the previous studies, it is
confirmed that the surgical site exhibits several limitations, among others,
lack of discriminative contextual information such as texture and features
which drastically limits this vision task. Additionally, poor imaging
conditions and lack of accurate ground-truth labels are also limiting the
accuracy. To mitigate these limitations of knee arthroscopy, in this work we
proposed a scene segmentation method that successfully segments multi
structures.
- Abstract(参考訳): 膝関節鏡検査は、膝関節の病気を治療するために行われる最小限の侵襲手術(MIS)手順です。
小型カメラから得られた手術部位の視覚情報の欠如は、この手術手順をより複雑にします。
膝腔は非常に狭い空間であるため、手術シーンは近接して撮影される。
その結果、意図しない組織損傷がしばしば発生し、新しい外科医を訓練するための長い学習曲線が示される。
手術部位のラベル付けによる自動コンテキスト認識は、これらの欠点を軽減するための代替手段である。
しかし, 前報より, 外科的部位には, テクスチャや特徴などの識別的文脈情報の欠如など, 視覚的タスクを著しく制限するいくつかの制限があることが確認された。
さらに、撮像条件の低さと正確な地中ラベルの欠如も精度を制限している。
そこで本研究では, 膝関節鏡の限界を緩和するために, 複数構造のセグメント化に成功したシーンセグメンテーション法を提案する。
関連論文リスト
- OphCLIP: Hierarchical Retrieval-Augmented Learning for Ophthalmic Surgical Video-Language Pretraining [55.15365161143354]
OphCLIPは、眼科手術ワークフロー理解のための階層的検索強化視覚言語事前学習フレームワークである。
OphCLIPは、短いビデオクリップと詳細な物語記述、構造化タイトルによるフルビデオの調整によって、細粒度と長期の視覚表現の両方を学習する。
我々のOphCLIPは、探索されていない大規模なサイレント手術ビデオを活用するために、検索強化事前訓練フレームワークも設計している。
論文 参考訳(メタデータ) (2024-11-23T02:53:08Z) - Procedure-Aware Surgical Video-language Pretraining with Hierarchical Knowledge Augmentation [51.222684687924215]
手術用ビデオ言語事前学習は、知識領域のギャップとマルチモーダルデータの不足により、独特な課題に直面している。
本稿では,これらの課題に対処するために,階層的知識向上手法と新しい手術的知識向上型ビデオランゲージ事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-30T22:21:05Z) - SURGIVID: Annotation-Efficient Surgical Video Object Discovery [42.16556256395392]
手術シーンのセマンティックセグメンテーションのためのアノテーション効率のよいフレームワークを提案する。
我々は,画像に基づく自己監督型物体発見法を用いて,外科的ビデオにおいて最も有能なツールや解剖学的構造を同定する。
完全教師付きセグメンテーションモデルを用いて,36のアノテーションラベルで強化した無教師付きセットアップでは,同程度のローカライゼーション性能を示す。
論文 参考訳(メタデータ) (2024-09-12T07:12:20Z) - CathAction: A Benchmark for Endovascular Intervention Understanding [74.58430707848527]
CathActionはカテーテル化理解のための大規模なデータセットである。
我々のデータセットは、約50,000の注釈付きフレームを含み、カテーテル化アクション理解と衝突検出を行う。
各タスクについて、この分野における最近の関連する研究をベンチマークする。
論文 参考訳(メタデータ) (2024-08-23T14:54:49Z) - Vision-Based Neurosurgical Guidance: Unsupervised Localization and Camera-Pose Prediction [41.91807060434709]
内視鏡的処置中に自分自身を位置決めすることは、区別可能なテクスチャやランドマークが欠如しているため、問題となることがある。
本稿では,解剖学的認識に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-15T14:09:11Z) - Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - Gravity Network for end-to-end small lesion detection [50.38534263407915]
本稿では,医療画像の小さな病変を特異的に検出するワンステージエンド・ツー・エンド検出器を提案する。
小さな病変の正確な局在化は、その外観と、それらが見つかる様々な背景によって困難を呈する。
この新たなアーキテクチャをGravityNetと呼び、新しいアンカーを重力点と呼ぶ。
論文 参考訳(メタデータ) (2023-09-22T14:02:22Z) - Visual-Kinematics Graph Learning for Procedure-agnostic Instrument Tip
Segmentation in Robotic Surgeries [29.201385352740555]
そこで我々は,様々な外科手術を施した楽器の先端を正確に分類する新しいビジュアル・キネマティクスグラフ学習フレームワークを提案する。
具体的には、画像とキネマティクスの両方から楽器部品のリレーショナル特徴を符号化するグラフ学習フレームワークを提案する。
クロスモーダル・コントラッシブ・ロスは、キネマティクスからチップセグメンテーションのイメージへの頑健な幾何学的先行を組み込むように設計されている。
論文 参考訳(メタデータ) (2023-09-02T14:52:58Z) - Learning-Based Keypoint Registration for Fetoscopic Mosaicking [65.02392513942533]
ツイン・トゥ・ツイン輸血症候群(TTTS)では、単子葉胎盤の血管系異常な血管性無痛が両胎児の間に不均一な血流を生じさせる。
本研究では,フィールド・オブ・ビュー展開のためのフェトスコープフレーム登録のための学習ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T21:21:12Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - Towards Robotic Knee Arthroscopy: Multi-Scale Network for Tissue-Tool
Segmentation [0.0]
組織-ツールセグメンテーションを実現するために,多スケール特徴をキャプチャし,形状特徴を統合した密結合型形状認識型マルチスケールセグメンテーションモデルを提案する。
一般公開されたPolypデータセットでは,提案したモデルが5.09%の精度向上を達成した。
論文 参考訳(メタデータ) (2021-10-06T11:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。