論文の概要: Rethinking Causality-driven Robot Tool Segmentation with Temporal
Constraints
- arxiv url: http://arxiv.org/abs/2212.00072v1
- Date: Wed, 30 Nov 2022 19:16:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:57:03.519236
- Title: Rethinking Causality-driven Robot Tool Segmentation with Temporal
Constraints
- Title(参考訳): 時間制約による因果性駆動型ロボットツールセグメンテーションの再考
- Authors: Hao Ding, Jie Ying Wu, Zhaoshuo Li, Mathias Unberath
- Abstract要約: ビデオシーケンスに基づくロボットツールセグメンテーションのための時間因果モデルを提案する。
我々はTemporally Constrained CaRTS(TC-CaRTS)というアーキテクチャを設計する。
実験の結果、TC-CaRTSはCaRTSと同じまたはより良いパフォーマンスを達成するために、はるかに少ないイテレーションを必要とすることがわかった。
- 参考スコア(独自算出の注目度): 9.297448326052432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Vision-based robot tool segmentation plays a fundamental role in
surgical robots and downstream tasks. CaRTS, based on a complementary causal
model, has shown promising performance in unseen counterfactual surgical
environments in the presence of smoke, blood, etc. However, CaRTS requires over
30 iterations of optimization to converge for a single image due to limited
observability. Method: To address the above limitations, we take temporal
relation into consideration and propose a temporal causal model for robot tool
segmentation on video sequences. We design an architecture named Temporally
Constrained CaRTS (TC-CaRTS). TC-CaRTS has three novel modules to complement
CaRTS - temporal optimization pipeline, kinematics correction network, and
spatial-temporal regularization. Results: Experiment results show that TC-CaRTS
requires much fewer iterations to achieve the same or better performance as
CaRTS. TC- CaRTS also has the same or better performance in different domains
compared to CaRTS. All three modules are proven to be effective. Conclusion: We
propose TC-CaRTS, which takes advantage of temporal constraints as additional
observability. We show that TC-CaRTS outperforms prior work in the robot tool
segmentation task with improved convergence speed on test datasets from
different domains.
- Abstract(参考訳): 目的: 手術ロボットや下流作業において視覚に基づくロボットのセグメンテーションが重要な役割を果たす。
CaRTSは相補的な因果モデルに基づいて, 煙や血液などの存在下で, 目に見えない対物手術環境において, 有望な性能を示した。
しかし、CaRTSは可観測性に制限があるため、1つのイメージに収束するために30回以上の最適化が必要である。
方法: 上記の制約に対処するため, 時間的関係を考慮し, ビデオシーケンスに基づくロボットツールセグメンテーションのための時間的因果モデルを提案する。
我々はTemporally Constrained CaRTS (TC-CaRTS) というアーキテクチャを設計する。
tc-cartsには、時間最適化パイプライン、キネマティック補正ネットワーク、時空間正規化の3つの新しいモジュールがある。
結果: 実験結果から,TC-CaRTS は CaRTS と同じあるいはより良い性能を達成するために,はるかに少ないイテレーションを必要とすることがわかった。
TC- CaRTSは、CaRTSと比較して、異なるドメインで同じまたはより良いパフォーマンスを持つ。
3つのモジュールはいずれも有効であることが証明されている。
結論: 追加観測可能性として時間制約を利用するTC-CaRTSを提案する。
tc-cartsは,異なる領域のテストデータセットの収束速度が向上し,ロボットツールセグメンテーションタスクにおける先行作業よりも優れていることを示す。
関連論文リスト
- Post-Training Network Compression for 3D Medical Image Segmentation: Reducing Computational Efforts via Tucker Decomposition [2.6820435361998918]
本稿では,既存のモデルの分解により,セグメント化精度を損なうことなく,計算要求を低減できるタッカー因数分解法を提案する。
提案手法では,推定時に必要となる浮動小数点演算(FLOP)とメモリを削減し,計算効率とセグメンテーション品質のトレードオフを調整可能とした。
論文 参考訳(メタデータ) (2024-04-15T11:36:31Z) - TC-LIF: A Two-Compartment Spiking Neuron Model for Long-Term Sequential
Modelling [54.97005925277638]
潜在的な可能性や危険に関連する感覚的手がかりの同定は、長期間の遅延によって有用な手がかりを分離する無関係な事象によってしばしば複雑になる。
SNN(State-of-the-art spiking Neural Network)は、遠方のキュー間の長期的な時間的依存関係を確立する上で、依然として困難な課題である。
そこで本研究では,T-LIFとよばれる,生物学的にインスパイアされたTwo-compartment Leaky Integrate- and-Fireのスパイキングニューロンモデルを提案する。
論文 参考訳(メタデータ) (2023-08-25T08:54:41Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - An Efficient Framework for Few-shot Skeleton-based Temporal Action
Segmentation [6.610414185789651]
テンポラルアクションセグメンテーション(TAS)は、長いアントリムされたアクションシーケンスのアクションを分類し、特定することを目的としている。
本研究では,データ拡張法と改良モデルを含む,数発の骨格型TASの効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T14:08:37Z) - CaRTS: Causality-driven Robot Tool Segmentation from Vision and
Kinematics Data [11.92904350972493]
ロボット支援手術中の視覚に基づくロボットツールのセグメンテーションは、拡張現実フィードバックなどの下流アプリケーションを可能にする。
ディープラーニングの導入により、楽器のセグメンテーションを画像から直接、あるいは画像から直接解決する多くの方法が提示された。
本稿では,ロボットツールセグメンテーションタスクの相補的因果モデルに基づいて設計した因果性駆動型ロボットツールセグメンテーションアルゴリズムCaRTSを提案する。
論文 参考訳(メタデータ) (2022-03-15T22:26:19Z) - ST-MTL: Spatio-Temporal Multitask Learning Model to Predict Scanpath
While Tracking Instruments in Robotic Surgery [14.47768738295518]
トラッキング機器によるタスク指向の注意の学習は、画像誘導型ロボット手術において大きな可能性を秘めている。
本稿では,リアルタイムの手術機器分割とタスク指向唾液度検出のための共有エンコーダとシンク時デコーダを用いたエンドツーエンドマルチタスク学習(ST-MTL)モデルを提案する。
本稿では,各デコーダの独立勾配を計算することで,非同期時間最適化手法を提案する。
最先端のセグメンテーションとサリエンシ手法と比較して、我々のモデルは評価指標よりも優れており、挑戦において優れた性能を生んでいる。
論文 参考訳(メタデータ) (2021-12-10T15:20:27Z) - CATRO: Channel Pruning via Class-Aware Trace Ratio Optimization [61.71504948770445]
本稿では,CATRO (Class-Aware Trace Ratio Optimization) を用いた新しいチャネルプルーニング手法を提案する。
CATROは、他の最先端チャネルプルーニングアルゴリズムと同等の精度で、同様のコストまたは低コストで高い精度を達成できることを示す。
CATROは、クラス認識の特性のため、様々な分類サブタスクに適応的に効率の良いネットワークを創り出すのに適している。
論文 参考訳(メタデータ) (2021-10-21T06:26:31Z) - CTC Variations Through New WFST Topologies [79.94035631317395]
本稿では,コネクショニスト時相分類(CTC)のような自動音声認識アルゴリズムを実装するために,WFST(Weighted Finite-State Transducer)トポロジを提案する。
1)ユニット間の直接遷移をepsilon>バックオフ遷移に置き換える"compact-CTC"、(2)WFSTコンポジションで使用する際に空白>自己ループのみを追加する"minimal-CTC"、(3)非ブランクユニットの自己ループを許可する"selfless-CTC"の3つの新しいCTC変種が提案されている。
論文 参考訳(メタデータ) (2021-10-06T23:00:15Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。