論文の概要: DRIMV_TSK: An Interpretable Surgical Evaluation Model for Incomplete Multi-View Rectal Cancer Data
- arxiv url: http://arxiv.org/abs/2506.17552v1
- Date: Sat, 21 Jun 2025 02:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.471602
- Title: DRIMV_TSK: An Interpretable Surgical Evaluation Model for Incomplete Multi-View Rectal Cancer Data
- Title(参考訳): DRIMV_TSK : 非完全多視点直腸癌データの解釈可能な手術評価モデル
- Authors: Wei Zhang, Zi Wang, Hanwen Zhou, Zhaohong Deng, Weiping Ding, Yuxi Ge, Te Zhang, Yuanpeng Zhang, Kup-Sze Choi, Shitong Wang, Shudong Hu,
- Abstract要約: 直腸癌に関するさらなるデータは、技術の発展とともに収集することができる。
人工知能の発展に伴い、直腸癌治療への応用が可能になってきている。
- 参考スコア(独自算出の注目度): 26.149387171274956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A reliable evaluation of surgical difficulty can improve the success of the treatment for rectal cancer and the current evaluation method is based on clinical data. However, more data about rectal cancer can be collected with the development of technology. Meanwhile, with the development of artificial intelligence, its application in rectal cancer treatment is becoming possible. In this paper, a multi-view rectal cancer dataset is first constructed to give a more comprehensive view of patients, including the high-resolution MRI image view, pressed-fat MRI image view, and clinical data view. Then, an interpretable incomplete multi-view surgical evaluation model is proposed, considering that it is hard to obtain extensive and complete patient data in real application scenarios. Specifically, a dual representation incomplete multi-view learning model is first proposed to extract the common information between views and specific information in each view. In this model, the missing view imputation is integrated into representation learning, and second-order similarity constraint is also introduced to improve the cooperative learning between these two parts. Then, based on the imputed multi-view data and the learned dual representation, a multi-view surgical evaluation model with the TSK fuzzy system is proposed. In the proposed model, a cooperative learning mechanism is constructed to explore the consistent information between views, and Shannon entropy is also introduced to adapt the view weight. On the MVRC dataset, we compared it with several advanced algorithms and DRIMV_TSK obtained the best results.
- Abstract(参考訳): 外科的難治性の信頼性評価は直腸癌治療の成功を向上し, 臨床データに基づく現在の評価方法である。
しかし, 直腸癌に関するデータは, 技術の発展とともに収集できる。
一方,人工知能の発達に伴い,直腸癌治療への応用の可能性が高まっている。
本稿では,高解像度MRI像,高解像度MRI像,高感度MRI像,臨床データビューなど,より包括的な患者像を提供するために,まず多視点直腸癌データセットを構築した。
そこで本研究では,実際の応用シナリオにおいて,広範かつ完全な患者データを得ることが困難であるとして,解釈不能な多視点手術評価モデルを提案する。
具体的には、ビュー間の共通情報と各ビュー内の特定情報とを抽出するために、まず二重表現不完全多視点学習モデルを提案する。
本モデルでは,2次類似性制約を導入し,これら2つの部分間の協調学習を改善する。
そこで, TSKファジィシステムを用いた多視点手術評価モデルを提案する。
提案モデルでは,ビュー間の一貫した情報を探索するために協調学習機構を構築し,ビューウェイトに適応するためにシャノンエントロピーも導入した。
MVRCデータセットでは、いくつかの高度なアルゴリズムと比較し、DRIMV_TSKが最良の結果を得た。
関連論文リスト
- Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Enhancing Multimodal Medical Image Classification using Cross-Graph Modal Contrastive Learning [9.902648398258117]
本稿では,医用画像分類を改善するために,マルチモーダル構造化データを対象としたクロスグラフ・モーダルコントラスト学習フレームワークを提案する。
提案手法は、パーキンソン病(PD)データセットと公共メラノーマデータセットの2つのデータセットで評価される。
以上の結果から,CGMCLは従来手法よりも精度,解釈可能性,早期疾患予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-23T01:25:25Z) - Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z) - Multi-View Hypercomplex Learning for Breast Cancer Screening [7.147856898682969]
伝統的に、乳がん分類のための深層学習法は単一視点解析を行う。
放射線科医は マンモグラフィー検査を構成する4つのビューを 同時に分析します
パラメータ化ハイパープレックスニューラルネットワークを用いた多視点乳がん分類法を提案する。
論文 参考訳(メタデータ) (2022-04-12T13:32:31Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。