論文の概要: Live Laparoscopic Video Retrieval with Compressed Uncertainty
- arxiv url: http://arxiv.org/abs/2203.04301v2
- Date: Mon, 12 Jun 2023 12:51:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:07:47.915390
- Title: Live Laparoscopic Video Retrieval with Compressed Uncertainty
- Title(参考訳): 圧縮不確かさを伴うライブ腹腔鏡下ビデオ検索
- Authors: Tong Yu, Pietro Mascagni, Juan Verde, Jacques Marescaux, Didier
Mutter, Nicolas Padoy
- Abstract要約: リアルタイムビデオ・ビデオ検索は、臨床価値の高い新しい、そしてほとんど探索されていない研究課題である。
本研究では,光計算フットプリントを維持しながら,この不確実性を緩和する手法を提案する。
手術用マルチタスク評価プロトコルにおいて, 胆嚢摘出, バイパス, 全く新しいデータセットを用いて, より優れた検索結果が得られた。
- 参考スコア(独自算出の注目度): 10.084933497717772
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Searching through large volumes of medical data to retrieve relevant
information is a challenging yet crucial task for clinical care. However the
primitive and most common approach to retrieval, involving text in the form of
keywords, is severely limited when dealing with complex media formats.
Content-based retrieval offers a way to overcome this limitation, by using rich
media as the query itself. Surgical video-to-video retrieval in particular is a
new and largely unexplored research problem with high clinical value,
especially in the real-time case: using real-time video hashing, search can be
achieved directly inside of the operating room. Indeed, the process of hashing
converts large data entries into compact binary arrays or hashes, enabling
large-scale search operations at a very fast rate. However, due to fluctuations
over the course of a video, not all bits in a given hash are equally reliable.
In this work, we propose a method capable of mitigating this uncertainty while
maintaining a light computational footprint. We present superior retrieval
results (3-4 % top 10 mean average precision) on a multi-task evaluation
protocol for surgery, using cholecystectomy phases, bypass phases, and coming
from an entirely new dataset introduced here, critical events across six
different surgery types. Success on this multi-task benchmark shows the
generalizability of our approach for surgical video retrieval.
- Abstract(参考訳): 関連情報を検索するために大量の医療データを検索することは、臨床医療にとって難しいが重要な課題である。
しかし、キーワードの形式でテキストを検索する原始的かつ最も一般的なアプローチは、複雑なメディアフォーマットを扱う場合に非常に制限される。
コンテンツベースの検索は、リッチメディアをクエリ自身として使用することで、この制限を克服する方法を提供する。
特に外科的ビデオ・ビデオ検索は,特にリアルタイム・ビデオ・ハッシュを用いて手術室内で直接検索を行うという,臨床的価値の高い新たな未発見な研究課題である。
実際、ハッシュ処理は大規模なデータエントリをコンパクトなバイナリ配列やハッシュに変換し、大規模な検索操作を非常に高速に行えるようにする。
しかし、ビデオ中のゆらぎにより、与えられたハッシュのすべてのビットが等しく信頼できるわけではない。
本研究では,光計算フットプリントを維持しながら,この不確実性を緩和する手法を提案する。
そこで本研究では, 胆嚢摘出術期, バイパス期, まったく新しいデータセットから得られた6種類の手術タイプにまたがるクリティカルイベントを用いて, 手術用マルチタスク評価プロトコルにおいて, 優れた検索結果(3~4%トップ10平均精度)を示す。
このマルチタスクベンチマークの成功は,本手法の外科的ビデオ検索における汎用性を示している。
関連論文リスト
- Weakly-Supervised Surgical Phase Recognition [19.27227976291303]
本研究では,グラフ分割の概念と自己教師付き学習を結合して,フレーム単位の位相予測のためのランダムウォーク解を導出する。
腹腔鏡下胆嚢摘出術ビデオのColec80データセットを用いて実験を行い,本法の有効性を確認した。
論文 参考訳(メタデータ) (2023-10-26T07:54:47Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - VideoSum: A Python Library for Surgical Video Summarization [3.928145224623878]
本稿では,画像の可視化,アノテーション,処理を容易にするために,手術映像を手話板や代表フレームのコラージュに要約することを提案する。
手術用ビデオからストーリーボードを生成するためのPythonライブラリである videoum を提案する。
論文 参考訳(メタデータ) (2023-02-15T19:09:34Z) - AutoLaparo: A New Dataset of Integrated Multi-tasks for Image-guided
Surgical Automation in Laparoscopic Hysterectomy [42.20922574566824]
ヒステリクトミー手術における学習ベースの自動化を容易にするために,複数の画像に基づく知覚タスクを組み込んだ最初の統合データセットを提示,リリースする。
我々のAutoLaparoデータセットは、全子宮摘出術のフル長ビデオに基づいて開発されている。
具体的には、外科的ワークフロー認識、腹腔鏡運動予測、機器とキー解剖のセグメンテーションを含む、3つの異なる高相関なタスクがデータセットで定式化されている。
論文 参考訳(メタデータ) (2022-08-03T13:17:23Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Hybrid Contrastive Quantization for Efficient Cross-View Video Retrieval [55.088635195893325]
クロスビュービデオ検索のための最初の量子化表現学習法,すなわちHybrid Contrastive Quantization(HCQ)を提案する。
HCQは、粗粒度と微粒度の両方を変換器で学習し、テキストやビデオの補完的な理解を提供する。
3つのWebビデオベンチマークデータセットの実験により、HCQは最先端の非圧縮検索手法と競合する性能を示す。
論文 参考訳(メタデータ) (2022-02-07T18:04:10Z) - Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action
Localization [7.235239641693831]
白内障手術では、顕微鏡の助けを借りて手術を行います。
顕微鏡は最大2人程度でリアルタイム手術を観察できるため、記録されたビデオを用いて手術訓練の大部分を行う。
ビデオコンテンツでトレーニング手順を最適化するには、外科医は自動関連性検出アプローチが必要です。
本稿では,白内障映像における関連フェーズセグメントの検出と分類を行うための3モジュールフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T12:01:08Z) - TEACHTEXT: CrossModal Generalized Distillation for Text-Video Retrieval [103.85002875155551]
本研究では,大規模言語前訓練を利用した一般化蒸留法TeachTextを提案する。
提案手法をビデオ側モダリティに拡張し,テスト時に使用するモダリティの数を効果的に削減できることを示す。
提案手法は,いくつかのビデオ検索ベンチマークの精度を著しく向上させ,テスト時の計算オーバーヘッドを増加させない。
論文 参考訳(メタデータ) (2021-04-16T17:55:28Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。