論文の概要: MATIS: Masked-Attention Transformers for Surgical Instrument
Segmentation
- arxiv url: http://arxiv.org/abs/2303.09514v3
- Date: Mon, 18 Sep 2023 18:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 20:11:03.331036
- Title: MATIS: Masked-Attention Transformers for Surgical Instrument
Segmentation
- Title(参考訳): MATIS:手術器具分割用マスケアテンショントランス
- Authors: Nicol\'as Ayobi, Alejandra P\'erez-Rond\'on, Santiago Rodr\'iguez,
Pablo Arbel\'aez
- Abstract要約: Masked-Attention Transformer for surgery Instrument (MATIS)
本手法は,映像変換器による長期映像レベル情報を取り入れ,時間的整合性の向上とマスク分類の強化を図る。
我々の実験は、MATISのフレーム単位のベースラインが従来の最先端手法よりも優れており、時間的一貫性モジュールを含めることで、モデルの性能をさらに向上させることを示した。
- 参考スコア(独自算出の注目度): 46.3370827549722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Masked-Attention Transformers for Surgical Instrument Segmentation
(MATIS), a two-stage, fully transformer-based method that leverages modern
pixel-wise attention mechanisms for instrument segmentation. MATIS exploits the
instance-level nature of the task by employing a masked attention module that
generates and classifies a set of fine instrument region proposals. Our method
incorporates long-term video-level information through video transformers to
improve temporal consistency and enhance mask classification. We validate our
approach in the two standard public benchmarks, Endovis 2017 and Endovis 2018.
Our experiments demonstrate that MATIS' per-frame baseline outperforms previous
state-of-the-art methods and that including our temporal consistency module
boosts our model's performance further.
- Abstract(参考訳): そこで本研究では,2段階の完全トランスフォーマティブ法であるmatis(手術用インスツルメンテーションセグメンテーション)のためのマスク付きアテンショントランスフォーマを提案する。
MATISは、タスクのインスタンスレベルの性質を利用して、一連の細かな機器領域の提案を生成・分類するマスク付きアテンションモジュールを使用する。
本手法は,映像変換器による長期映像レベル情報を取り入れ,時間的整合性の向上とマスク分類の強化を図る。
当社のアプローチは、Endovis 2017とEndovis 2018の2つの標準公開ベンチマークで検証しています。
実験により,matisのフレーム単位のベースラインが従来の最先端のメソッドよりも優れており,時間的一貫性モジュールを含めれば,モデルの性能がさらに向上することを示した。
関連論文リスト
- Enhancing Transformer Backbone for Egocentric Video Action Segmentation [5.104181562775778]
本稿では,アクションセグメンテーションのための最先端トランスフォーマを強化するための2つの新しいアイデアを提案する。
本稿では,局所的・グローバル的・局所的両方の文脈における階層的表現を適応的に捉えるための,二重拡張型アテンション機構を提案する。
また、最先端のビジュアル言語表現学習技術を用いて、トランスフォーマーのよりリッチでコンパクトな特徴を抽出する。
論文 参考訳(メタデータ) (2023-05-19T01:00:08Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - SPARTAN: Self-supervised Spatiotemporal Transformers Approach to Group
Activity Recognition [47.3759947287782]
本稿では, グループ活動認識(GAR)に対する, ラベル付きビデオデータを用いた新しい, 単純で効果的な自己監督型時空間変換器(TAN)を提案する。
論文 参考訳(メタデータ) (2023-03-06T16:58:27Z) - From Forks to Forceps: A New Framework for Instance Segmentation of
Surgical Instruments [6.677634562400846]
最小侵襲手術と関連する応用は、インスタンスレベルでの外科的ツール分類とセグメンテーションを要求する。
本研究は,バウンディングボックスとセグメンテーションマスクが正確な場合が多いが,分類ヘッドが手術器具の分類ラベルを誤分類していることを示す。
我々は、既存のインスタンスセグメンテーションモデルに分類モジュールを新しいステージとして追加する新しいニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:26:42Z) - SegViT: Semantic Segmentation with Plain Vision Transformers [91.50075506561598]
意味的セグメンテーションのための平易な視覚変換器(ViT)の能力について検討する。
本研究では,学習可能なクラストークンの集合と空間特徴マップの類似性をセグメンテーションマスクに転送するATMモジュールを提案する。
実験の結果,ATMモジュールを用いたSegVitは,通常のViTバックボーンよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-10-12T00:30:26Z) - Video Mask Transfiner for High-Quality Video Instance Segmentation [102.50936366583106]
Video Mask Transfiner (VMT) は、高効率なビデオトランス構造により、微細な高解像度機能を利用することができる。
当社のVMTアーキテクチャに基づいて,反復的トレーニングと自己補正による自動アノテーション改善アプローチを設計する。
我々はVMTとHQ-YTVISの最新の最先端手法、Youtube-VIS、OVIS、BDD100K MOTSを比較した。
論文 参考訳(メタデータ) (2022-07-28T11:13:37Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。