論文の概要: ProtoFlow: Interpretable and Robust Surgical Workflow Modeling with Learned Dynamic Scene Graph Prototypes
- arxiv url: http://arxiv.org/abs/2512.14092v1
- Date: Tue, 16 Dec 2025 04:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.596494
- Title: ProtoFlow: Interpretable and Robust Surgical Workflow Modeling with Learned Dynamic Scene Graph Prototypes
- Title(参考訳): ProtoFlow: 動的シーングラフプロトタイプを用いた解釈型およびロバストな手術ワークフローモデリング
- Authors: Felix Holm, Ghazal Ghazaei, Nassir Navab,
- Abstract要約: ProtoFlowは、複雑な手術イベントをモデル化するための動的グラフプロトタイプを学ぶ新しいフレームワークである。
詳細なCAT-SGデータセットに対する我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 42.15644075070622
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Purpose: Detailed surgical recognition is critical for advancing AI-assisted surgery, yet progress is hampered by high annotation costs, data scarcity, and a lack of interpretable models. While scene graphs offer a structured abstraction of surgical events, their full potential remains untapped. In this work, we introduce ProtoFlow, a novel framework that learns dynamic scene graph prototypes to model complex surgical workflows in an interpretable and robust manner. Methods: ProtoFlow leverages a graph neural network (GNN) encoder-decoder architecture that combines self-supervised pretraining for rich representation learning with a prototype-based fine-tuning stage. This process discovers and refines core prototypes that encapsulate recurring, clinically meaningful patterns of surgical interaction, forming an explainable foundation for workflow analysis. Results: We evaluate our approach on the fine-grained CAT-SG dataset. ProtoFlow not only outperforms standard GNN baselines in overall accuracy but also demonstrates exceptional robustness in limited-data, few-shot scenarios, maintaining strong performance when trained on as few as one surgical video. Our qualitative analyses further show that the learned prototypes successfully identify distinct surgical sub-techniques and provide clear, interpretable insights into workflow deviations and rare complications. Conclusion: By uniting robust representation learning with inherent explainability, ProtoFlow represents a significant step toward developing more transparent, reliable, and data-efficient AI systems, accelerating their potential for clinical adoption in surgical training, real-time decision support, and workflow optimization.
- Abstract(参考訳): 目的: 詳細な外科的認識は, 高度なアノテーションコスト, データ不足, 解釈可能なモデルの欠如によって進行が阻害される。
シーングラフは外科イベントの構造化された抽象化を提供するが、その潜在能力は未解決のままである。
本稿では,複雑な手術ワークフローを解釈可能かつ堅牢にモデル化するための動的シーングラフプロトタイプを学習する新しいフレームワークであるProtoFlowを紹介する。
メソッド: ProtoFlowはグラフニューラルネットワーク(GNN)エンコーダ・デコーダアーキテクチャを活用し、リッチ表現学習のための自己教師付き事前学習とプロトタイプベースの微調整ステージを組み合わせる。
このプロセスは、外科的相互作用の反復的、臨床的に意味のあるパターンをカプセル化したコアプロトタイプを発見し、洗練し、ワークフロー分析のための説明可能な基盤を形成する。
結果: 細粒度CAT-SGデータセットに対するアプローチについて検討した。
ProtoFlowは、通常のGNNベースラインを全体的な精度で上回るだけでなく、限られたデータや数ショットのシナリオにおいて、例外的な堅牢性を示し、単一の手術ビデオでトレーニングされた場合、高いパフォーマンスを維持する。
定性的な分析により、学習したプロトタイプは、異なる外科的サブテクニックを識別し、ワークフローの偏りと稀な合併症に対する明確かつ解釈可能な洞察を提供することができた。
結論: 堅牢な表現学習と本質的な説明責任を結合することにより、ProtoFlowは、より透明で信頼性があり、データ効率のよいAIシステムを開発するための重要なステップであり、外科トレーニング、リアルタイム意思決定のサポート、ワークフロー最適化における臨床導入の可能性を加速します。
関連論文リスト
- Supervise Less, See More: Training-free Nuclear Instance Segmentation with Prototype-Guided Prompting [53.799446807827714]
核インスタンスセグメンテーションのための完全トレーニングおよびアノテーションなしプロンプトフレームワークであるSPROUTを紹介する。
SPROUTは、スライド固有の参照プロトタイプを構築するために、ヒストロジーインフォームドプリエントを利用する。
前景と背景の特徴は正および負の点のプロンプトに変換され、Segment Anything Model (SAM) は正確な核線を生成できる。
論文 参考訳(メタデータ) (2025-11-25T05:58:33Z) - An Active Learning Pipeline for Biomedical Image Instance Segmentation with Minimal Human Intervention [4.805039406228118]
U-Netのようなディープラーニングモデルでは、セグメンテーションのパフォーマンスに新たなベンチマークが設定されている。
nnU-Netは、クロスバリデーションのために相当量のアノテートデータを必要とする。
この研究は、アクティブラーニングと擬似ラベルを活用するデータ中心のAIワークフローを提案する。
論文 参考訳(メタデータ) (2025-11-06T21:07:26Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Data-Efficient Learning for Generalizable Surgical Video Understanding [0.0]
本研究は, 深層学習に基づく外科的ビデオ解析と実世界の臨床環境とのギャップを埋めることを目的としている。
私は最先端のニューラルネットワークアーキテクチャをベンチマークして、各タスクの最も効果的な設計を特定しました。
我々は,大量の未ラベルの手術ビデオを活用することにより,タスク間のモデル性能を向上させる半駆動型フレームワークを開発した。
論文 参考訳(メタデータ) (2025-08-13T22:00:23Z) - Surgical Foundation Model Leveraging Compression and Entropy Maximization for Image-Guided Surgical Assistance [50.486523249499115]
低侵襲手術(MIS)におけるリアルタイム映像理解の重要性
手術ビデオからコンパクトで情報的表現を学習するための,新しい自己教師型フレームワークであるCompress-to-Explore (C2E)を提案する。
C2Eは、エントロピー最大化デコーダを使用して、臨床的に関連する詳細を保持しながら画像を圧縮し、ラベル付きデータなしでエンコーダのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2025-05-16T14:02:24Z) - Rethinking model prototyping through the MedMNIST+ dataset collection [0.11999555634662634]
この作業では、MedMNIST+データセットコレクションの包括的なベンチマークを導入する。
我々は、一般的なCNN(Convolutional Neural Networks)とViT(Vision Transformer)アーキテクチャを、異なる医療データセットにわたって再評価する。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルが,エンドツーエンドのトレーニングに有効な代替手段を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-24T10:19:25Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - CorpusBrain: Pre-train a Generative Retrieval Model for
Knowledge-Intensive Language Tasks [62.22920673080208]
単一ステップ生成モデルは、検索プロセスを劇的に単純化し、エンドツーエンドで最適化することができる。
我々は、事前学習された生成検索モデルをCorpsBrainと名付け、コーパスに関する全ての情報が、追加のインデックスを構築することなく、そのパラメータにエンコードされる。
論文 参考訳(メタデータ) (2022-08-16T10:22:49Z) - Aggregating Long-Term Context for Learning Laparoscopic and
Robot-Assisted Surgical Workflows [40.48632897750319]
本稿では,タスク固有のネットワーク表現を利用した時間的ネットワーク構造を提案する。
腹腔鏡下胆嚢摘出術を施行した。
論文 参考訳(メタデータ) (2020-09-01T20:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。