論文の概要: SurgFormer: Scalable Learning of Organ Deformation with Resection Support and Real-Time Inference
- arxiv url: http://arxiv.org/abs/2603.06543v1
- Date: Fri, 06 Mar 2026 18:29:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.393503
- Title: SurgFormer: Scalable Learning of Organ Deformation with Resection Support and Real-Time Inference
- Title(参考訳): SurgFormer: 分割サポートとリアルタイム推論による臓器変形のスケーラブルな学習
- Authors: Ashkan Shahbazi, Elaheh Akbari, Kyvia Pereira, Jon S. Heiselman, Annie C. Benson, Garrison L. H. Johnston, Jie Ying Wu, Nabil Simaan, Michael I. Miga, Soheil Kolouri,
- Abstract要約: 本稿では,データ駆動型軟組織シミュレーションのための多分解能ゲートトランスであるSurgFormerを紹介する。
高忠実度バイオメカニカル・ソルバは対話的利用には高コストであることが多いので、我々はSurgFormerをデザイナ生成データで訓練し、ノード幅の変位場を予測する。
SurgFormerは良好な効率で高い精度を達成し、両方のタスクの実践的なバックボーンとなる。
- 参考スコア(独自算出の注目度): 14.49835131603816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SurgFormer, a multiresolution gated transformer for data driven soft tissue simulation on volumetric meshes. High fidelity biomechanical solvers are often too costly for interactive use, so we train SurgFormer on solver generated data to predict nodewise displacement fields at near real time rates. SurgFormer builds a fixed mesh hierarchy and applies repeated multibranch blocks that combine local message passing, coarse global self attention, and pointwise feedforward updates, fused by learned per node, per channel gates to adaptively integrate local and long range information while remaining scalable on large meshes. For cut conditioned simulation, resection information is encoded as a learned cut embedding and provided as an additional input, enabling a unified model for both standard deformation prediction and topology altering cases. We also introduce two surgical simulation datasets generated under a unified protocol with XFEM based supervision: a cholecystectomy resection dataset and an appendectomy manipulation and resection dataset with cut and uncut cases. To our knowledge, this is the first learned volumetric surrogate setting to study XFEM supervised cut conditioned deformation within the same volumetric pipeline as standard deformation prediction. Across diverse baselines, SurgFormer achieves strong accuracy with favorable efficiency, making it a practical backbone for both tasks. {Code, data, and project page: \href{https://mint-vu.github.io/SurgFormer/}{available here}}
- Abstract(参考訳): 本稿では,データ駆動型軟組織シミュレーションのための多分解能ゲートトランスであるSurgFormerを紹介する。
高忠実度バイオメカニカル・ソルバは対話的利用には高コストであることが多いので、我々はSurgFormerをチューバ生成データで訓練し、ノード方向の変位場をほぼリアルタイムに予測する。
SurgFormerは、固定されたメッシュ階層を構築し、ローカルメッセージパッシング、粗いグローバルな自己注意、ノード毎の学習によって融合されたポイントワイドフィードフォワード更新を組み合わせた、繰り返し行われるマルチブランチブロックを適用して、大きなメッシュ上でスケーラブルを維持しながら、ローカルおよび長距離情報を適応的に統合する。
切断条件付きシミュレーションでは、切除情報を学習カット埋め込みとして符号化し、追加入力として提供し、標準変形予測と位相変化ケースの統一モデルを可能にする。
また,XFEMをベースとした統一プロトコルで生成された2つの手術シミュレーションデータセット,胆嚢摘出切除データセットと,切除例と切除例を併用した虫垂切除術・切除データセットも導入した。
我々の知る限り、これはXFEMが指示するカット条件付き変形を標準変形予測と同じ体積パイプライン内で研究する最初の学習されたボリュームサロゲート設定である。
多様なベースラインにまたがって、SurgFormerは高い精度と良好な効率を実現し、両方のタスクの実践的なバックボーンとなる。
コード、データ、プロジェクトページ: \href{https://mint-vu.github.io/SurgFormer/}{ available here}}
関連論文リスト
- Fake It Right: Injecting Anatomical Logic into Synthetic Supervised Pre-training for Medical Segmentation [21.75204301463342]
ビジョントランスフォーマー(ViT)は3次元の医療セグメンテーションで優れるが、大量のデータセットを必要とする。
Formula-Driven Supervised Learning (F)は、合成数学的プリミティブを事前学習することで、プライバシ保護の代替手段を提供する。
本稿では,Fの無限拡張性と解剖学的リアリズムを一体化するための注釈付きインフォームド・シンセティック・アナトロジー・プレトレーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-01T08:15:18Z) - FluenceFormer: Transformer-Driven Multi-Beam Fluence Map Regression for Radiotherapy Planning [4.066732323672965]
textbfFluenceFormerは、直接的かつ幾何学的に認識されるフレンス回帰のための、バックボーンに依存しないトランスフォーマーフレームワークである。
Swin UNETRを使用したFluenceFormerは、評価されたモデルの中で最強のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-12-27T01:12:15Z) - TCFNet: Bidirectional face-bone transformation via a Transformer-based coarse-to-fine point movement network [1.9981869613001535]
そこで我々は,Transformer を用いた粗い点移動ネットワーク (TCFNet) を提案する。
TCFNetは、優れた評価指標と視覚化結果を達成する。
論文 参考訳(メタデータ) (2025-08-20T03:02:16Z) - DefTransNet: A Transformer-based Method for Non-Rigid Point Cloud Registration in the Simulation of Soft Tissue Deformation [0.0]
我々は,非剛点クラウド登録のための新しいエンドツーエンドトランスフォーマーアーキテクチャであるDefTransNetを提案する。
DefTransNetは、大きな変形、外れ値、ノイズ、部分データなど、変形可能な登録に関する重要な課題に対処する。
提案手法の一般化を実証するため,本手法を4つのデータセット上で検証した。
論文 参考訳(メタデータ) (2025-02-10T10:37:21Z) - Abdominal organ segmentation via deep diffeomorphic mesh deformations [5.4173776411667935]
CTとMRIによる腹部臓器の分節は,手術計画とコンピュータ支援ナビゲーションシステムにとって必須の要件である。
肝, 腎, 膵, 脾の分節に対するテンプレートベースのメッシュ再構成法を応用した。
結果として得られたUNetFlowは4つの器官すべてによく当てはまり、新しいデータに基づいて簡単に微調整できる。
論文 参考訳(メタデータ) (2023-06-27T14:41:18Z) - General Neural Gauge Fields [100.35916421218101]
我々はゲージ変換とニューラルネットワークを協調的に最適化する学習フレームワークを開発した。
我々は、シーン情報を本質的に保存し、優れた性能を得ることができる情報不変ゲージ変換を導出する。
論文 参考訳(メタデータ) (2023-05-05T12:08:57Z) - PyMAF-X: Towards Well-aligned Full-body Model Regression from Monocular
Images [60.33197938330409]
PyMAF-Xは、モノクロ画像からパラメトリックフルボディモデルを復元するための回帰ベースのアプローチである。
PyMAFとPyMAF-Xは、メッシュイメージアライメントを効果的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-07-13T17:58:33Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。