論文の概要: Explainable AI for Collaborative Assessment of 2D/3D Registration Quality
- arxiv url: http://arxiv.org/abs/2507.17597v1
- Date: Wed, 23 Jul 2025 15:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.06034
- Title: Explainable AI for Collaborative Assessment of 2D/3D Registration Quality
- Title(参考訳): 2D/3Dレジストレーション品質の協調評価のための説明可能なAI
- Authors: Sue Min Cho, Alexander Do, Russell H. Taylor, Mathias Unberath,
- Abstract要約: 本稿では,2D/3D登録品質検証に特化して訓練された最初の人工知能フレームワークを提案する。
我々の説明可能なAI(XAI)アプローチは、人間のオペレーターに対する情報意思決定を強化することを目的としている。
- 参考スコア(独自算出の注目度): 50.65650507103078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As surgery embraces digital transformation--integrating sophisticated imaging, advanced algorithms, and robotics to support and automate complex sub-tasks--human judgment of system correctness remains a vital safeguard for patient safety. This shift introduces new "operator-type" roles tasked with verifying complex algorithmic outputs, particularly at critical junctures of the procedure, such as the intermediary check before drilling or implant placement. A prime example is 2D/3D registration, a key enabler of image-based surgical navigation that aligns intraoperative 2D images with preoperative 3D data. Although registration algorithms have advanced significantly, they occasionally yield inaccurate results. Because even small misalignments can lead to revision surgery or irreversible surgical errors, there is a critical need for robust quality assurance. Current visualization-based strategies alone have been found insufficient to enable humans to reliably detect 2D/3D registration misalignments. In response, we propose the first artificial intelligence (AI) framework trained specifically for 2D/3D registration quality verification, augmented by explainability features that clarify the model's decision-making. Our explainable AI (XAI) approach aims to enhance informed decision-making for human operators by providing a second opinion together with a rationale behind it. Through algorithm-centric and human-centered evaluations, we systematically compare four conditions: AI-only, human-only, human-AI, and human-XAI. Our findings reveal that while explainability features modestly improve user trust and willingness to override AI errors, they do not exceed the standalone AI in aggregate performance. Nevertheless, future work extending both the algorithmic design and the human-XAI collaboration elements holds promise for more robust quality assurance of 2D/3D registration.
- Abstract(参考訳): 手術がデジタルトランスフォーメーションを導入し、高度なイメージング、高度なアルゴリズム、ロボットが複雑なサブタスクをサポートし、自動化される。
このシフトでは、複雑なアルゴリズム出力の検証、特にドリル前中間チェックやインプラント配置などの手順の要点の検証を行う新しい「演算型」の役割が導入されている。
主な例として、2D/3Dの登録がある。これは、術中の2D画像と術前の3Dデータとを一致させる画像ベースの手術ナビゲーションのキーイネーラである。
登録アルゴリズムは大幅に進歩しているが、時には不正確な結果が得られる。
小さなミスアライメントであっても、修正手術や不可逆的な手術ミスにつながる可能性があるため、堅牢な品質保証が不可欠である。
現在の可視化ベースの戦略だけでは、人間が確実に2D/3Dの登録ミスを検出できるには不十分である。
そこで本研究では,2次元/3次元の登録品質検証に特化して訓練された最初の人工知能(AI)フレームワークを提案する。
我々の説明可能なAI(XAI)アプローチは、人間のオペレーターに対する情報的意思決定を強化することを目的としており、その背景にある理論的根拠とともに第2の意見を提供する。
アルゴリズム中心および人間中心の評価を通じて、AIのみ、人間のみ、人間のみ、人間とXAIの4つの条件を体系的に比較する。
以上の結果から,説明可能性機能は,AIエラーを克服するユーザの信頼と意欲をわずかに向上させるが,総合的なパフォーマンスではスタンドアロンのAIを超えないことが明らかとなった。
それでも、アルゴリズム設計と人間とXAIのコラボレーション要素の両方を拡張する今後の作業は、2D/3D登録のより堅牢な品質保証を約束する。
関連論文リスト
- Visual Analytics for Explainable and Trustworthy Artificial Intelligence [2.1212179660694104]
AI採用の大きな障害は、透明性の欠如にある。
多くの自動化システムはブラックボックスとして機能し、基盤となるプロセスを明らかにすることなく予測を提供する。
ビジュアル分析(VA)は、AIモデルとインタラクティブな視覚化を組み合わせることで、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-14T13:03:17Z) - Quality Assessment and Distortion-aware Saliency Prediction for AI-Generated Omnidirectional Images [70.49595920462579]
本研究は,AIGODIの品質評価と歪みを考慮したサリエンシ予測問題について検討する。
BLIP-2モデルに基づく共有エンコーダを用いた2つのモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T05:36:04Z) - Rapid patient-specific neural networks for intraoperative X-ray to volume registration [4.347837200266261]
2D/3D登録のための患者固有のニューラルネットワークをトレーニングするための、完全に自動化されたフレームワークであるxvrを提案する。
xvrは、物理に基づくシミュレーションを使用して、患者の術前のボリューム画像から豊富な高品質なトレーニングデータを生成する。
実X線データに対する2D/3D登録アルゴリズムの最大評価を行い、xvrが多種多様なデータセットにわたって頑健に一般化されることを見出した。
論文 参考訳(メタデータ) (2025-03-20T16:33:45Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - BinaryHPE: 3D Human Pose and Shape Estimation via Binarization [99.83378699846767]
3次元人のポーズと形状推定(HPE)は、単一の画像から3次元の人体、顔、手を再構築することを目的としている。
本研究では,人体・顔・手の3次元パラメータを効率的に推定するバイナライズ手法であるBinaryHPEを提案する。
論文 参考訳(メタデータ) (2023-11-24T07:51:50Z) - IM-IAD: Industrial Image Anomaly Detection Benchmark in Manufacturing [88.35145788575348]
画像異常検出(英: Image Anomaly Detection、IAD)は、産業用コンピュータビジョンの課題である。
統一IMベンチマークの欠如は、現実世界のアプリケーションにおけるIADメソッドの開発と利用を妨げる。
7つの主要なデータセットに19のアルゴリズムを含む包括的画像異常検出ベンチマーク(IM-IAD)を構築した。
論文 参考訳(メタデータ) (2023-01-31T01:24:45Z) - The Impact of Machine Learning on 2D/3D Registration for Image-guided
Interventions: A Systematic Review and Perspective [6.669432838047949]
画像ベースのナビゲーションは、最小侵襲手術の次のフロンティアとして広く考えられている。
2D/3Dレジストレーションは3次元構造と2次元画像の間の空間的関係を推定する手法である。
イメージング問題に対する機械学習ベースのアプローチの近年の出現は、2D/3D登録における悪名高い課題のいくつかを解決するための約束である。
論文 参考訳(メタデータ) (2021-08-04T18:31:29Z) - Attention-Guided Version of 2D UNet for Automatic Brain Tumor
Segmentation [2.371982686172067]
グリオーマは脳腫瘍の中でも最も一般的で攻撃的であり、高い成績で寿命が短くなる。
深層畳み込みニューラルネットワーク(DCNN)は脳腫瘍のセグメンテーションにおいて顕著な性能を発揮している。
しかし, グリオーマの強度や外観に変化があるため, この課題は依然として困難である。
論文 参考訳(メタデータ) (2020-04-04T20:09:06Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。