論文の概要: SurgX: Neuron-Concept Association for Explainable Surgical Phase Recognition
- arxiv url: http://arxiv.org/abs/2507.15418v1
- Date: Mon, 21 Jul 2025 09:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.336656
- Title: SurgX: Neuron-Concept Association for Explainable Surgical Phase Recognition
- Title(参考訳): SurgX: 説明可能な外科的位相認識のためのニューロン概念アソシエーション
- Authors: Ka Young Kim, Hyeon Bae Kim, Seong Tae Kim,
- Abstract要約: 外科的位相認識は外科的ワークフロー解析において重要な役割を担い、外科的モニタリング、スキルアセスメント、ワークフロー最適化などの様々な応用を可能にする。
深層学習に基づく外科的位相認識の大幅な進歩にもかかわらず、これらのモデルは本質的に不透明であり、どのように判断するかを理解することは困難である。
本稿では,ニューロンと関連する概念を関連付けることにより,外科的位相認識モデルの解釈可能性を高める新しい概念に基づく説明フレームワークであるSurgXを提案する。
- 参考スコア(独自算出の注目度): 3.2627279988912194
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Surgical phase recognition plays a crucial role in surgical workflow analysis, enabling various applications such as surgical monitoring, skill assessment, and workflow optimization. Despite significant advancements in deep learning-based surgical phase recognition, these models remain inherently opaque, making it difficult to understand how they make decisions. This lack of interpretability hinders trust and makes it challenging to debug the model. To address this challenge, we propose SurgX, a novel concept-based explanation framework that enhances the interpretability of surgical phase recognition models by associating neurons with relevant concepts. In this paper, we introduce the process of selecting representative example sequences for neurons, constructing a concept set tailored to the surgical video dataset, associating neurons with concepts and identifying neurons crucial for predictions. Through extensive experiments on two surgical phase recognition models, we validate our method and analyze the explanation for prediction. This highlights the potential of our method in explaining surgical phase recognition. The code is available at https://github.com/ailab-kyunghee/SurgX
- Abstract(参考訳): 外科的位相認識は外科的ワークフロー解析において重要な役割を担い、外科的モニタリング、スキルアセスメント、ワークフロー最適化などの様々な応用を可能にする。
深層学習に基づく外科的位相認識の大幅な進歩にもかかわらず、これらのモデルは本質的に不透明であり、どのように判断するかを理解することは困難である。
この解釈可能性の欠如は信頼を妨げ、モデルをデバッグすることを難しくする。
この課題に対処するため、我々は、ニューロンと関連する概念を関連付けることにより、外科的位相認識モデルの解釈可能性を高める新しい概念ベースの説明フレームワークであるSurgXを提案する。
本稿では,ニューロンの代表的な例列の選択,手術用ビデオデータセットに適した概念セットの構築,概念とニューロンの関連付け,予測に不可欠なニューロンの同定について紹介する。
2つの外科的位相認識モデルに関する広範な実験を通じて,本手法の有効性を検証し,予測のための説明を解析する。
このことは,外科的位相認識を説明する上での本手法の可能性を強調した。
コードはhttps://github.com/ailab-kyunghee/SurgXで公開されている。
関連論文リスト
- ReSW-VL: Representation Learning for Surgical Workflow Analysis Using Vision-Language Model [0.07143413923310668]
ビデオからの外科的位相認識は、外科手術の進行を自動的に分類する技術である。
外科的位相認識技術の最近の進歩は、主にトランスフォーメーションに基づく手法に焦点を当てている。
視覚言語モデルを用いた外科的ワークフロー解析における表現学習法を提案する。
論文 参考訳(メタデータ) (2025-05-19T21:44:37Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Transparent AI: Developing an Explainable Interface for Predicting Postoperative Complications [1.6609516435725236]
我々は5つの重要な質問に答えるために設計された説明可能なAI(XAI)フレームワークを提案する。
我々は,LIME(Local Interpretable Model-Agnostic Explanations)などの様々な手法を取り入れた。
術後合併症の予測を目的としたXAIインタフェースの試作について紹介した。
論文 参考訳(メタデータ) (2024-04-18T21:01:27Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in Laparoscopic and Robotic Surgery [47.47211257890948]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision [12.306688233127312]
本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
論文 参考訳(メタデータ) (2023-03-02T01:02:18Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。