論文の概要: A spatio-temporal network for video semantic segmentation in surgical
videos
- arxiv url: http://arxiv.org/abs/2306.11052v1
- Date: Mon, 19 Jun 2023 16:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:00:59.305083
- Title: A spatio-temporal network for video semantic segmentation in surgical
videos
- Title(参考訳): 手術ビデオにおけるビデオ意味セグメンテーションのための時空間ネットワーク
- Authors: Maria Grammatikopoulou, Ricardo Sanchez-Matilla, Felix Bragman, David
Owen, Lucy Culshaw, Karen Kerr, Danail Stoyanov, Imanol Luengo
- Abstract要約: ビデオにおける時間的関係をモデル化するための新しいアーキテクチャを提案する。
提案モデルは,セマンティックビデオセグメンテーションを可能にするデコーダを含む。
提案するデコーダは,任意のセグメンテーションエンコーダ上で時間的整合性を改善するために使用することができる。
- 参考スコア(独自算出の注目度): 11.548181453080087
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Semantic segmentation in surgical videos has applications in intra-operative
guidance, post-operative analytics and surgical education. Segmentation models
need to provide accurate and consistent predictions since temporally
inconsistent identification of anatomical structures can impair usability and
hinder patient safety. Video information can alleviate these challenges leading
to reliable models suitable for clinical use. We propose a novel architecture
for modelling temporal relationships in videos. The proposed model includes a
spatio-temporal decoder to enable video semantic segmentation by improving
temporal consistency across frames. The encoder processes individual frames
whilst the decoder processes a temporal batch of adjacent frames. The proposed
decoder can be used on top of any segmentation encoder to improve temporal
consistency. Model performance was evaluated on the CholecSeg8k dataset and a
private dataset of robotic Partial Nephrectomy procedures. Segmentation
performance was improved when the temporal decoder was applied across both
datasets. The proposed model also displayed improvements in temporal
consistency.
- Abstract(参考訳): 手術ビデオのセマンティックセグメンテーションは術中指導、術後分析、外科教育に応用されている。
解剖学的構造の時間的不整合な識別は、使用性や患者の安全性を損なう可能性があるため、セグメンテーションモデルは正確かつ一貫した予測を提供する必要がある。
ビデオ情報は、臨床使用に適した信頼できるモデルにつながるこれらの課題を軽減することができる。
ビデオの時間関係をモデル化するための新しいアーキテクチャを提案する。
提案モデルは,フレーム間の時間的一貫性を改善し,映像意味セグメンテーションを可能にする時空間デコーダを含む。
エンコーダは個々のフレームを処理し、デコーダは隣接するフレームの時間バッチを処理する。
提案するデコーダは,任意のセグメンテーションエンコーダ上で時間的整合性を改善するために使用できる。
モデル性能はcholecseg8kデータセットとロボット部分腎摘出術のプライベートデータセットで評価した。
時間デコーダが両方のデータセットに適用されるとセグメンテーション性能が向上した。
提案モデルは時間的整合性も改善した。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Multi-grained Temporal Prototype Learning for Few-shot Video Object
Segmentation [156.4142424784322]
FSVOS(Few-Shot Video Object)は、いくつかのアノテーション付きサポートイメージで定義されるのと同じカテゴリで、クエリビデオ内のオブジェクトをセグメントすることを目的としている。
本稿では,ビデオデータの時間的相関性を扱うために,多粒度時間的ガイダンス情報を活用することを提案する。
提案するビデオIPMTモデルは,2つのベンチマークデータセットにおいて,従来のモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-09-20T09:16:34Z) - Leaping Into Memories: Space-Time Deep Feature Synthesis [93.10032043225362]
内部モデルから映像を合成するアーキテクチャ非依存の手法であるLEAPSを提案する。
我々は,Kineetics-400に基づく多種多様なアーキテクチャの進化的注目を反転させることにより,LEAPSの適用性を定量的かつ定性的に評価する。
論文 参考訳(メタデータ) (2023-03-17T12:55:22Z) - Video-SwinUNet: Spatio-temporal Deep Learning Framework for VFSS
Instance Segmentation [10.789826145990016]
本稿では,医用ビデオセグメンテーションのためのディープラーニングフレームワークを提案する。
本フレームワークは, 時間次元にまたがる近傍のフレームから特徴を明示的に抽出する。
テンポラリな機能ブレンダーを組み込んで、ハイレベルな時間的特徴をトークン化し、Swin Transformerを介してエンコードされた強力なグローバル機能を形成する。
論文 参考訳(メタデータ) (2023-02-22T12:09:39Z) - Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation [5.0754434714665715]
本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークTCNNを紹介する。
本研究では,オートエンコーダネットワークを用いて,空間的および時間的監視信号の両方を効率的に提供できることを示す。
予測マスクの低次元表現を有効活用して,スパースラベル付き両方のデータセットに一貫した改善を実現することを実証した。
論文 参考訳(メタデータ) (2021-12-27T18:06:12Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Atrous Residual Interconnected Encoder to Attention Decoder Framework
for Vertebrae Segmentation via 3D Volumetric CT Images [1.8146155083014204]
本稿では,3次元容積CT画像を用いた新しい椎骨分割法を提案する。
提案モデルは,ミニバッチトレーニング性能の最適化にレイヤ正規化を用いた,エンコーダからデコーダへの構造に基づく。
実験の結果,本モデルは他の医学的意味セグメンテーション法と比較して競争力が得られた。
論文 参考訳(メタデータ) (2021-04-08T12:09:16Z) - Multi-frame Feature Aggregation for Real-time Instrument Segmentation in
Endoscopic Video [11.100734994959419]
ビデオフレームの特徴を時間的・空間的に集約するMFFA(Multi-frame Feature Aggregation)モジュールを提案する。
また,1つのラベル付きフレームからランダムに手術用フレームシーケンスを合成し,ネットワークトレーニングを支援する手法を開発した。
論文 参考訳(メタデータ) (2020-11-17T16:27:27Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Symmetric Dilated Convolution for Surgical Gesture Recognition [10.699258974625073]
外科的ジェスチャーを自動的に検出・分節する新しい時間的畳み込みアーキテクチャを提案する。
本研究では,長期時間パターンを符号化・復号化するために,自己アテンションモジュールでブリッジされた対称的拡張構造を用いて手法を考案する。
JIGSAWSデータセットからの基本的なロボット縫合タスクに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-07-13T13:34:48Z) - Efficient Semantic Video Segmentation with Per-frame Inference [117.97423110566963]
本研究では,フレームごとの効率的なセマンティックビデオセグメンテーションを推論プロセス中に処理する。
そこで我々は,コンパクトモデルと大規模モデルのパフォーマンスギャップを狭めるために,新しい知識蒸留法を設計した。
論文 参考訳(メタデータ) (2020-02-26T12:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。