論文の概要: Personalize to generalize: Towards a universal medical multi-modality generalization through personalization
- arxiv url: http://arxiv.org/abs/2411.06106v1
- Date: Sat, 09 Nov 2024 08:00:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:11:51.281300
- Title: Personalize to generalize: Towards a universal medical multi-modality generalization through personalization
- Title(参考訳): 一般化へのパーソナライズ--パーソナライズによるユニバーサル医療多目的一般化を目指して
- Authors: Zhaorui Tan, Xi Yang, Tan Pan, Tianyi Liu, Chen Jiang, Xin Guo, Qiufeng Wang, Anh Nguyen, Yuan Qi, Kaizhu Huang, Yuan Cheng,
- Abstract要約: 本稿では,基本となるパーソナライズされた不変表現である $mathbbX_h$ の抽出可能な形式を導出する新しい手法を提案する。
本手法は物理的構造と機能的情報の両方を強調する医用画像モダリティに対して厳密に検証されている。
- 参考スコア(独自算出の注目度): 35.5423842780382
- License:
- Abstract: Personalized medicine is a groundbreaking healthcare framework for the $21^{st}$ century, tailoring medical treatments to individuals based on unique clinical characteristics, including diverse medical imaging modalities. Given the significant differences among these modalities due to distinct underlying imaging principles, generalization in multi-modal medical image tasks becomes substantially challenging. Previous methods addressing multi-modal generalization rarely consider personalization, primarily focusing on common anatomical information. This paper aims to bridge multi-modal generalization with the concept of personalized medicine. Specifically, we propose a novel approach to derive a tractable form of the underlying personalized invariant representation $\mathbb{X}_h$ by leveraging individual-level constraints and a learnable biological prior. We demonstrate the feasibility and benefits of learning a personalized $\mathbb{X}_h$, showing that this representation is highly generalizable and transferable across various multi-modal medical tasks. Our method is rigorously validated on medical imaging modalities emphasizing both physical structure and functional information, encompassing a range of tasks that require generalization. Extensive experimental results consistently show that our approach significantly improves performance across diverse scenarios, confirming its effectiveness.
- Abstract(参考訳): パーソナライズド・メディカル(Personalized Medicine)は21ドル(約2万2000円)という価格帯の医療フレームワークであり、様々な医療画像モダリティを含むユニークな臨床特性に基づいて個人に医療を適応する。
画像の原理の相違により、これらのモダリティに顕著な違いがあることから、マルチモーダルな医療画像タスクの一般化は極めて困難である。
マルチモーダル一般化に対処する従来の手法は、主に共通の解剖学的情報に焦点を当てたパーソナライゼーションを考えることは稀である。
本稿では、パーソナライズドメディカルの概念により、マルチモーダルな一般化を橋渡しすることを目的とする。
具体的には、個々のレベルの制約と学習可能な生物学的先行性を利用して、基礎となるパーソナライズされた不変表現 $\mathbb{X}_h$ の抽出可能な形式を導出する新しいアプローチを提案する。
我々は、パーソナライズされた$\mathbb{X}_h$を学習し、この表現が様々なマルチモーダル医療タスクにおいて非常に一般化可能であり、伝達可能であることを示す。
本手法は, 物理構造と機能的情報の両方を重視した医用画像モダリティを厳格に検証し, 一般化を必要とするタスクの範囲を包含する。
大規模な実験結果から,本手法は様々なシナリオにおける性能を著しく向上させ,その有効性を確認した。
関連論文リスト
- MedViLaM: A multimodal large language model with advanced generalizability and explainability for medical data understanding and generation [40.9095393430871]
MedViLaMは、医用データの汎用モデルに向けた統合視覚言語モデルである。
MedViLaMは、臨床言語や画像など、様々な形の医療データを柔軟にエンコードし、解釈することができる。
ゼロショットの一般化を新しい医療概念やタスクに適用し、異なるタスク間で効果的な伝達学習を行い、ゼロショットの医学推論が出現する事例を提示する。
論文 参考訳(メタデータ) (2024-09-29T12:23:10Z) - 3M-Health: Multimodal Multi-Teacher Knowledge Distillation for Mental Health Detection [9.469887408109251]
メンタルヘルス分類のためのマルチモーダル・マルチティーラー知識蒸留モデルを提案する。
多様な特徴を統合するための単純な結合にしばしば依存する従来のアプローチとは異なり、我々のモデルは様々な性質の入力を適切に表現するという課題に対処する。
論文 参考訳(メタデータ) (2024-07-12T06:22:45Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Diversified and Personalized Multi-rater Medical Image Segmentation [43.47142636000329]
本稿ではD-Personaという2段階のフレームワークを提案する。
ステージIでは、複数のアノテーションを使って確率的U-Netモデルをトレーニングし、予測の多様性を改善するために制約付き損失を制限した。
ステージIIでは、複数の注意に基づく投影ヘッドを設計し、対応する専門家のプロンプトを共有潜在空間から適応的にクエリし、パーソナライズされた医用画像セグメンテーションを実行する。
論文 参考訳(メタデータ) (2024-03-20T09:00:19Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - Stone Needle: A General Multimodal Large-scale Model Framework towards
Healthcare [1.7894377200944511]
Stone Needleは、医療アプリケーションに特化して設計された、一般的なマルチモーダルな大規模モデルフレームワークである。
アーキテクチャは複数ラウンドの対話でマルチモーダルインタラクションを行うことができる。
異なるモダリティの融合と複雑な医療情報をストーンニードルで処理する能力は、正確な診断、治療勧告、患者医療に有効である。
論文 参考訳(メタデータ) (2023-06-28T09:04:56Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Representational Ethical Model Calibration [0.7078141380481605]
エピステム・エクイティ(英: Epistem equity)は、意思決定におけるインテリジェンスの比較忠実度である。
その量化の一般的な枠組みは、言うまでもなく、保証は存在しない。
表現倫理モデルのための包括的枠組みを導入する。
論文 参考訳(メタデータ) (2022-07-25T10:33:39Z) - Multimodal Routing: Improving Local and Global Interpretability of
Multimodal Language Analysis [103.69656907534456]
人間中心のタスクに強いパフォーマンスを持つ最近のマルチモーダル学習は、しばしばブラックボックスである。
本稿では,各入力サンプルに対して,入力モダリティと出力表現の重み付けを異なる方法で調整するマルチモーダルルーティングを提案する。
論文 参考訳(メタデータ) (2020-04-29T13:42:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。