論文の概要: SegSTRONG-C: Segmenting Surgical Tools Robustly On Non-adversarial Generated Corruptions -- An EndoVis'24 Challenge
- arxiv url: http://arxiv.org/abs/2407.11906v1
- Date: Tue, 16 Jul 2024 16:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 13:53:50.865069
- Title: SegSTRONG-C: Segmenting Surgical Tools Robustly On Non-adversarial Generated Corruptions -- An EndoVis'24 Challenge
- Title(参考訳): SegSTRONG-C:非敵対的発生的破壊にロバストに手術ツールを分割する - EndoVis'24 Challenge
- Authors: Hao Ding, Tuxun Lu, Yuqian Zhang, Ruixing Liang, Hongchao Shu, Lalithkumar Seenivasan, Yonghao Long, Qi Dou, Cong Gao, Mathias Unberath,
- Abstract要約: 現在のフィードフォワードニューラルネットワークに基づく手法は、理想的な条件下では優れたセグメンテーション性能を示す。
SegSTRONG-C チャレンジは、予期せぬが確実な手術画像の破損に対して堅牢なアルゴリズムの開発を促進することを目的としている。
新たなベンチマークにより、手術の非敵的腐敗に対するニューラルネットワークの堅牢性について慎重に研究することが可能になります。
- 参考スコア(独自算出の注目度): 20.63421118951673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate segmentation of tools in robot-assisted surgery is critical for machine perception, as it facilitates numerous downstream tasks including augmented reality feedback. While current feed-forward neural network-based methods exhibit excellent segmentation performance under ideal conditions, these models have proven susceptible to even minor corruptions, significantly impairing the model's performance. This vulnerability is especially problematic in surgical settings where predictions might be used to inform high-stakes decisions. To better understand model behavior under non-adversarial corruptions, prior work has explored introducing artificial corruptions, like Gaussian noise or contrast perturbation to test set images, to assess model robustness. However, these corruptions are either not photo-realistic or model/task agnostic. Thus, these investigations provide limited insights into model deterioration under realistic surgical corruptions. To address this limitation, we introduce the SegSTRONG-C challenge that aims to promote the development of algorithms robust to unforeseen but plausible image corruptions of surgery, like smoke, bleeding, and low brightness. We collect and release corruption-free mock endoscopic video sequences for the challenge participants to train their algorithms and benchmark them on video sequences with photo-realistic non-adversarial corruptions for a binary robot tool segmentation task. This new benchmark will allow us to carefully study neural network robustness to non-adversarial corruptions of surgery, thus constituting an important first step towards more robust models for surgical computer vision. In this paper, we describe the data collection and annotation protocol, baseline evaluations of established segmentation models, and data augmentation-based techniques to enhance model robustness.
- Abstract(参考訳): ロボット支援手術におけるツールの正確なセグメンテーションは、拡張現実フィードバックを含む多くの下流タスクを促進するため、機械認識にとって重要である。
現在のフィードフォワードニューラルネットワークベースの手法は、理想的な条件下では優れたセグメンテーション性能を示すが、これらのモデルはマイナーな腐敗にも影響し、モデルの性能を著しく損なうことが証明されている。
この脆弱性は、高い判断を下すために予測が用いられるような外科的設定で特に問題となる。
非敵対的な汚職下でのモデルの振る舞いをよりよく理解するために、先行研究では、モデル堅牢性を評価するために、ガウスノイズやコントラスト摂動のような人工的な汚職の導入を検討してきた。
しかし、これらの腐敗はフォトリアリスティックでもモデル/タスク非依存でもない。
したがって, これらの調査は, リアルな外科的汚濁下でのモデル劣化に対する限られた洞察を与える。
この制限に対処するため,SegSTRONG-Cチャレンジを導入し,喫煙や出血,低明度といった,予期せぬが確実な画像破壊に対して頑健なアルゴリズムの開発を促進することを目的とした。
我々は,ロボットツールセグメンテーションタスクにおいて,被写体を非現実的な非敵対的汚職の動画シーケンスを用いて,参加者がアルゴリズムを訓練し,それらをビデオシーケンスでベンチマークするために,汚職のない模擬ビデオシーケンスを収集,リリースする。
この新しいベンチマークでは、手術の非敵の腐敗に対するニューラルネットワークの堅牢性について慎重に研究することが可能となり、手術用コンピュータビジョンのためのより堅牢なモデルに向けた重要な第一歩となる。
本稿では,データ収集とアノテーションプロトコル,確立されたセグメンテーションモデルのベースライン評価,モデルの堅牢性を高めるためのデータ拡張技術について述べる。
関連論文リスト
- MAPUNetR: A Hybrid Vision Transformer and U-Net Architecture for Efficient and Interpretable Medical Image Segmentation [0.0]
本稿では,医用画像セグメンテーションのためのU-Netフレームワークを用いて,トランスフォーマーモデルの強度を相乗化する新しいアーキテクチャMAPUNetRを紹介する。
本モデルでは,分解能保存課題に対処し,セグメンテーションされた領域に着目したアテンションマップを導入し,精度と解釈可能性を高める。
臨床実習における医用画像セグメンテーションの強力なツールとして,本モデルが安定した性能と可能性を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:52:57Z) - Towards Robust Algorithms for Surgical Phase Recognition via Digital Twin-based Scene Representation [14.108636146958007]
ビデオから直接外科的フェーズを予測するエンドツーエンドのニューラルネットワークは、ベンチマークで優れたパフォーマンスを示している。
我々のゴールは、デジタルツイン(DT)パラダイムを活用して、手術ビデオの変動に対するモデルロバスト性を改善することである。
このアプローチは、信頼性の高い低レベルのシーン理解を保証する、最近のビジョン基盤モデルを活用する。
論文 参考訳(メタデータ) (2024-10-26T00:49:06Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Uncertainty modeling for fine-tuned implicit functions [10.902709236602536]
入射関数は、スパースビューから詳細な物体形状を再構成するコンピュータビジョンにおいて重要な役割を担っている。
暗黙関数における不確実性推定手法であるDropsemblesを導入する。
その結果,Dropsemblesは深層アンサンブルの精度とキャリブレーションレベルを達成するが,計算コストは著しく低いことがわかった。
論文 参考訳(メタデータ) (2024-06-17T20:46:18Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Towards to Robust and Generalized Medical Image Segmentation Framework [17.24628770042803]
本稿では,ロバストな一般化セグメンテーションのための新しい2段階フレームワークを提案する。
特に、教師なしTile-wise AutoEncoder(T-AE)事前学習アーキテクチャは、意味のある表現を学ぶために作成される。
複数の胸部X線データセットに対する肺分画実験を行った。
論文 参考訳(メタデータ) (2021-08-09T05:58:49Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。