論文の概要: SegSTRONG-C: Segmenting Surgical Tools Robustly On Non-adversarial Generated Corruptions -- An EndoVis'24 Challenge
- arxiv url: http://arxiv.org/abs/2407.11906v2
- Date: Mon, 07 Apr 2025 23:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:25:54.936267
- Title: SegSTRONG-C: Segmenting Surgical Tools Robustly On Non-adversarial Generated Corruptions -- An EndoVis'24 Challenge
- Title(参考訳): SegSTRONG-C:非敵対的発生的破壊にロバストに手術ツールを分割する - EndoVis'24 Challenge
- Authors: Hao Ding, Yuqian Zhang, Tuxun Lu, Ruixing Liang, Hongchao Shu, Lalithkumar Seenivasan, Yonghao Long, Qi Dou, Cong Gao, Yicheng Leng, Seok Bong Yoo, Eung-Joo Lee, Negin Ghamsarian, Klaus Schoeffmann, Raphael Sznitman, Zijian Wu, Yuxin Chen, Septimiu E. Salcudean, Samra Irshad, Shadi Albarqouni, Seong Tae Kim, Yueyi Sun, An Wang, Long Bai, Hongliang Ren, Ihsan Ullah, Ho-Gun Ha, Attaullah Khan, Hyunki Lee, Satoshi Kondo, Satoshi Kasai, Kousuke Hirasawa, Sita Tailor, Ricardo Sanchez-Matilla, Imanol Luengo, Tianhao Fu, Jun Ma, Bo Wang, Marcos Fernández-Rodríguez, Estevao Lima, João L. Vilaça, Mathias Unberath,
- Abstract要約: 外科データ科学専門のベンチマークと課題であるSegSTRONG-Cを紹介する。
我々は、予期せぬ不利な非敵対的な汚職の下でのモデル劣化をよりよく理解することを目指している。
挑戦者のパフォーマンスは平均0.9394 DSCと0.9301 NSDを達成し、刺激的な改善を示している。
- 参考スコア(独自算出の注目度): 35.28816926000958
- License:
- Abstract: Surgical data science has seen rapid advancement due to the excellent performance of end-to-end deep neural networks (DNNs) for surgical video analysis. Despite their successes, end-to-end DNNs have been proven susceptible to even minor corruptions, substantially impairing the model's performance. This vulnerability has become a major concern for the translation of cutting-edge technology, especially for high-stakes decision-making in surgical data science. We introduce SegSTRONG-C, a benchmark and challenge in surgical data science dedicated, aiming to better understand model deterioration under unforeseen but plausible non-adversarial corruption and the capabilities of contemporary methods that seek to improve it. Through comprehensive baseline experiments and participating submissions from widespread community engagement, SegSTRONG-C reveals key themes for model failure and identifies promising directions for improving robustness. The performance of challenge winners, achieving an average 0.9394 DSC and 0.9301 NSD across the unreleased test sets with corruption types: bleeding, smoke, and low brightness, shows inspiring improvement of 0.1471 DSC and 0.2584 NSD in average comparing to strongest baseline methods with UNet architecture trained with AutoAugment. In conclusion, the SegSTRONG-C challenge has identified some practical approaches for enhancing model robustness, yet most approaches relied on conventional techniques that have known, and sometimes quite severe, limitations. Looking ahead, we advocate for expanding intellectual diversity and creativity in non-adversarial robustness beyond data augmentation or training scale, calling for new paradigms that enhance universal robustness to corruptions and may enable richer applications in surgical data science.
- Abstract(参考訳): 外科的データ科学は、外科的ビデオ解析のためのエンドツーエンドのディープニューラルネットワーク(DNN)の性能に優れていたため、急速に進歩している。
彼らの成功にもかかわらず、エンド・ツー・エンドのDNNは小さな腐敗さえも受け入れ難いことが証明され、モデルの性能が著しく損なわれている。
この脆弱性は最先端技術の翻訳、特に外科データ科学における高精度な意思決定にとって大きな関心事となっている。
本研究は, 手術データ科学専門のベンチマークおよび課題であるSegSTRONG-Cを紹介し, 予期せぬ, もっともらしい非敵対的な汚職下でのモデル劣化の理解と, 改善を目指す現代的手法の能力について紹介する。
SegSTRONG-Cは、総合的なベースライン実験と広範囲なコミュニティ参加からの参加を通じて、モデル失敗の鍵となるテーマを明らかにし、堅牢性を改善するための有望な方向を特定する。
挑戦者のパフォーマンスは、平均0.9394 DSCと0.9301 NSDを、出血、煙、低輝度の汚職タイプで達成し、AutoAugmentで訓練されたUNetアーキテクチャによる最強のベースライン手法と比較して、平均0.1471 DSCと0.2584 NSDを刺激的に改善したことを示している。
結論として、SegSTRONG-Cチャレンジは、モデルの堅牢性を高めるためのいくつかの実践的なアプローチを特定したが、ほとんどのアプローチは、既知の、時には非常に厳しい制限に頼っていた。
今後、我々は、データ拡張やトレーニングスケールを超えて、知的多様性と創造性を拡大し、汚職に対する普遍的な堅牢性を高め、よりリッチな手術データ科学の応用を可能にする新しいパラダイムを提唱する。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - MAPUNetR: A Hybrid Vision Transformer and U-Net Architecture for Efficient and Interpretable Medical Image Segmentation [0.0]
本稿では,医用画像セグメンテーションのためのU-Netフレームワークを用いて,トランスフォーマーモデルの強度を相乗化する新しいアーキテクチャMAPUNetRを紹介する。
本モデルでは,分解能保存課題に対処し,セグメンテーションされた領域に着目したアテンションマップを導入し,精度と解釈可能性を高める。
臨床実習における医用画像セグメンテーションの強力なツールとして,本モデルが安定した性能と可能性を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:52:57Z) - Towards Robust Algorithms for Surgical Phase Recognition via Digital Twin-based Scene Representation [14.108636146958007]
ビデオから直接外科的フェーズを予測するエンドツーエンドのニューラルネットワークは、ベンチマークで優れたパフォーマンスを示している。
我々のゴールは、デジタルツイン(DT)パラダイムを活用して、手術ビデオの変動に対するモデルロバスト性を改善することである。
このアプローチは、信頼性の高い低レベルのシーン理解を保証する、最近のビジョン基盤モデルを活用する。
論文 参考訳(メタデータ) (2024-10-26T00:49:06Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Uncertainty modeling for fine-tuned implicit functions [10.902709236602536]
入射関数は、スパースビューから詳細な物体形状を再構成するコンピュータビジョンにおいて重要な役割を担っている。
暗黙関数における不確実性推定手法であるDropsemblesを導入する。
その結果,Dropsemblesは深層アンサンブルの精度とキャリブレーションレベルを達成するが,計算コストは著しく低いことがわかった。
論文 参考訳(メタデータ) (2024-06-17T20:46:18Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Towards to Robust and Generalized Medical Image Segmentation Framework [17.24628770042803]
本稿では,ロバストな一般化セグメンテーションのための新しい2段階フレームワークを提案する。
特に、教師なしTile-wise AutoEncoder(T-AE)事前学習アーキテクチャは、意味のある表現を学ぶために作成される。
複数の胸部X線データセットに対する肺分画実験を行った。
論文 参考訳(メタデータ) (2021-08-09T05:58:49Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。