論文の概要: TraceTrans: Translation and Spatial Tracing for Surgical Prediction
- arxiv url: http://arxiv.org/abs/2510.22379v2
- Date: Tue, 28 Oct 2025 03:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 13:20:32.889859
- Title: TraceTrans: Translation and Spatial Tracing for Surgical Prediction
- Title(参考訳): TraceTrans: 手術予測のための翻訳と空間的追跡
- Authors: Xiyu Luo, Haodong Li, Xinxing Cheng, He Zhao, Yang Hu, Xuan Song, Tianyang Zhang,
- Abstract要約: 術後予測のための変形可能な画像翻訳モデルであるTraceTransを提案する。
予め入力された空間対応を明示しつつ、目標分布に整合した画像を生成する。
このフレームワークは、特徴抽出のためのエンコーダと、空間的変形を予測し、翻訳された画像を合成するためのデュアルデコーダを用いる。
- 参考スコア(独自算出の注目度): 13.717478195171708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image translation models have achieved notable success in converting images across visual domains and are increasingly used for medical tasks such as predicting post-operative outcomes and modeling disease progression. However, most existing methods primarily aim to match the target distribution and often neglect spatial correspondences between the source and translated images. This limitation can lead to structural inconsistencies and hallucinations, undermining the reliability and interpretability of the predictions. These challenges are accentuated in clinical applications by the stringent requirement for anatomical accuracy. In this work, we present TraceTrans, a novel deformable image translation model designed for post-operative prediction that generates images aligned with the target distribution while explicitly revealing spatial correspondences with the pre-operative input. The framework employs an encoder for feature extraction and dual decoders for predicting spatial deformations and synthesizing the translated image. The predicted deformation field imposes spatial constraints on the generated output, ensuring anatomical consistency with the source. Extensive experiments on medical cosmetology and brain MRI datasets demonstrate that TraceTrans delivers accurate and interpretable post-operative predictions, highlighting its potential for reliable clinical deployment.
- Abstract(参考訳): 画像から画像への変換モデルは、視覚領域をまたいだ画像の変換において顕著な成功を収めており、術後の結果の予測や疾患の進行のモデル化といった医療業務に利用されてきている。
しかし、既存のほとんどの手法は、主に対象の分布と一致し、ソースと翻訳された画像の間の空間的対応を無視することを目的としている。
この制限は構造上の矛盾と幻覚を引き起こし、予測の信頼性と解釈可能性を妨げる。
これらの課題は、解剖学的正確性に対する厳格な要求によって臨床応用において強調される。
本研究では, 対象の分布に整合した画像を生成し, 予め入力した空間対応を明示する, 術後の予測のための新しい変形可能な画像変換モデルであるTraceTransを提案する。
このフレームワークは、特徴抽出のためのエンコーダと、空間的変形を予測し、翻訳された画像を合成するためのデュアルデコーダを用いる。
予測変形場は、生成した出力に空間的制約を課し、ソースとの解剖学的整合性を確保する。
医療宇宙論と脳MRIデータセットに関する大規模な実験は、TraceTransが正確な、解釈可能な術後予測を提供し、信頼性の高い臨床展開の可能性を強調していることを示している。
関連論文リスト
- Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - Distribution-Based Masked Medical Vision-Language Model Using Structured Reports [9.306835492101413]
医用画像テキスト事前訓練は,医療用画像と臨床関連テキストの整合を図り,様々な下流作業におけるモデル性能を向上させることを目的としている。
本研究は,医用画像解析における一般化能力を高める不確実性を考慮した医用画像テキスト事前学習モデルを提案する。
論文 参考訳(メタデータ) (2025-07-29T13:31:24Z) - Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Uncertainty-aware Medical Diagnostic Phrase Identification and Grounding [72.18719355481052]
MRG(Messical Report Grounding)と呼ばれる新しい課題について紹介する。
MRGは医療報告から診断フレーズとその対応する接地箱を直接エンドツーエンドで識別することを目的としている。
マルチモーダルな大規模言語モデルを用いて診断フレーズを予測する,堅牢で信頼性の高いフレームワークである uMedGround を提案する。
論文 参考訳(メタデータ) (2024-04-10T07:41:35Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Improving Robustness and Reliability in Medical Image Classification with Latent-Guided Diffusion and Nested-Ensembles [4.249986624493547]
一度展開すると、医用画像解析法は予期せぬ画像の破損やノイズの摂動に直面することが多い。
LaDiNEは、視覚変換器のロバスト性と拡散に基づく生成モデルを組み合わせた、新しいアンサンブル学習手法である。
結核胸部X線とメラノーマ皮膚がんデータセットの実験により、LaDiNEは幅広い最先端の方法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-10-24T15:53:07Z) - Exploring Semantic Consistency in Unpaired Image Translation to Generate
Data for Surgical Applications [1.8011391924021904]
本研究では,外科的応用における適切なデータを生成するための画像翻訳手法を実験的に検討した。
構造相似性損失と対照的学習の単純な組み合わせが、最も有望な結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2023-09-06T14:43:22Z) - Probabilistic Modeling of Inter- and Intra-observer Variability in
Medical Image Segmentation [12.594098548008832]
我々は、確率的オブザーバとiNtraオブザーバ変異NetwOrk(ピオノ)と呼ばれる新しいモデルを提案する。
各レーダのラベル付け動作を多次元確率分布で捉え、確率的セグメンテーション予測を生成する。
実世界のがんセグメンテーションデータセットの実験は、ピオノの精度と効率を実証している。
論文 参考訳(メタデータ) (2023-07-21T07:29:38Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。