論文の概要: Personalize to generalize: Towards a universal medical multi-modality generalization through personalization
- arxiv url: http://arxiv.org/abs/2411.06106v2
- Date: Wed, 13 Nov 2024 03:19:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 12:31:45.427509
- Title: Personalize to generalize: Towards a universal medical multi-modality generalization through personalization
- Title(参考訳): 一般化へのパーソナライズ--パーソナライズによるユニバーサル医療多目的一般化を目指して
- Authors: Zhaorui Tan, Xi Yang, Tan Pan, Tianyi Liu, Chen Jiang, Xin Guo, Qiufeng Wang, Anh Nguyen, Yuan Qi, Kaizhu Huang, Yuan Cheng,
- Abstract要約: 本稿では,様々なモダリティにまたがるパーソナライズされた不変表現を近似することで,パーソナライズされた一般化を実現するアプローチを提案する。
我々は、パーソナライズされた$X_h$の学習の実現可能性とメリットを検証し、この表現が多種多様な医療タスクにおいて非常に一般化可能であり、伝達可能であることを示す。
- 参考スコア(独自算出の注目度): 35.5423842780382
- License:
- Abstract: The differences among medical imaging modalities, driven by distinct underlying principles, pose significant challenges for generalization in multi-modal medical tasks. Beyond modality gaps, individual variations, such as differences in organ size and metabolic rate, further impede a model's ability to generalize effectively across both modalities and diverse populations. Despite the importance of personalization, existing approaches to multi-modal generalization often neglect individual differences, focusing solely on common anatomical features. This limitation may result in weakened generalization in various medical tasks. In this paper, we unveil that personalization is critical for multi-modal generalization. Specifically, we propose an approach to achieve personalized generalization through approximating the underlying personalized invariant representation ${X}_h$ across various modalities by leveraging individual-level constraints and a learnable biological prior. We validate the feasibility and benefits of learning a personalized ${X}_h$, showing that this representation is highly generalizable and transferable across various multi-modal medical tasks. Extensive experimental results consistently show that the additionally incorporated personalization significantly improves performance and generalization across diverse scenarios, confirming its effectiveness.
- Abstract(参考訳): 医用画像のモダリティの違いは、異なる基礎原理によって引き起こされ、マルチモーダル医療タスクにおける一般化に重大な課題を生じさせる。
モダリティのギャップを超えて、臓器の大きさと代謝率の違いのような個々のバリエーションは、モデルがモダリティと多様な集団の両方で効果的に一般化する能力を妨げている。
パーソナライズの重要性にもかかわらず、既存のマルチモーダル一般化へのアプローチは、共通の解剖学的特徴にのみ焦点をあてて、個々の違いを無視することが多い。
この制限は、様々な医療タスクにおける一般化を弱める可能性がある。
本稿では,パーソナライズがマルチモーダルな一般化に不可欠であることを明らかにする。
具体的には,個人レベルの制約と学習可能な生物学的先行性を活用することで,様々なモダリティにまたがるパーソナライズされた不変表現${X}_h$を近似することで,パーソナライズされた一般化を実現するアプローチを提案する。
我々は、パーソナライズされた${X}_h$を学習し、この表現が様々なマルチモーダル医療タスクにおいて非常に一般化可能であり、伝達可能であることを示す。
総合的な実験結果から、追加的に組み込まれたパーソナライゼーションは、様々なシナリオにおけるパフォーマンスと一般化を著しく改善し、その有効性を確認している。
関連論文リスト
- MedViLaM: A multimodal large language model with advanced generalizability and explainability for medical data understanding and generation [40.9095393430871]
MedViLaMは、医用データの汎用モデルに向けた統合視覚言語モデルである。
MedViLaMは、臨床言語や画像など、様々な形の医療データを柔軟にエンコードし、解釈することができる。
ゼロショットの一般化を新しい医療概念やタスクに適用し、異なるタスク間で効果的な伝達学習を行い、ゼロショットの医学推論が出現する事例を提示する。
論文 参考訳(メタデータ) (2024-09-29T12:23:10Z) - 3M-Health: Multimodal Multi-Teacher Knowledge Distillation for Mental Health Detection [9.469887408109251]
メンタルヘルス分類のためのマルチモーダル・マルチティーラー知識蒸留モデルを提案する。
多様な特徴を統合するための単純な結合にしばしば依存する従来のアプローチとは異なり、我々のモデルは様々な性質の入力を適切に表現するという課題に対処する。
論文 参考訳(メタデータ) (2024-07-12T06:22:45Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - Diversified and Personalized Multi-rater Medical Image Segmentation [43.47142636000329]
本稿ではD-Personaという2段階のフレームワークを提案する。
ステージIでは、複数のアノテーションを使って確率的U-Netモデルをトレーニングし、予測の多様性を改善するために制約付き損失を制限した。
ステージIIでは、複数の注意に基づく投影ヘッドを設計し、対応する専門家のプロンプトを共有潜在空間から適応的にクエリし、パーソナライズされた医用画像セグメンテーションを実行する。
論文 参考訳(メタデータ) (2024-03-20T09:00:19Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - Stone Needle: A General Multimodal Large-scale Model Framework towards
Healthcare [1.7894377200944511]
Stone Needleは、医療アプリケーションに特化して設計された、一般的なマルチモーダルな大規模モデルフレームワークである。
アーキテクチャは複数ラウンドの対話でマルチモーダルインタラクションを行うことができる。
異なるモダリティの融合と複雑な医療情報をストーンニードルで処理する能力は、正確な診断、治療勧告、患者医療に有効である。
論文 参考訳(メタデータ) (2023-06-28T09:04:56Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Representational Ethical Model Calibration [0.7078141380481605]
エピステム・エクイティ(英: Epistem equity)は、意思決定におけるインテリジェンスの比較忠実度である。
その量化の一般的な枠組みは、言うまでもなく、保証は存在しない。
表現倫理モデルのための包括的枠組みを導入する。
論文 参考訳(メタデータ) (2022-07-25T10:33:39Z) - Multimodal Routing: Improving Local and Global Interpretability of
Multimodal Language Analysis [103.69656907534456]
人間中心のタスクに強いパフォーマンスを持つ最近のマルチモーダル学習は、しばしばブラックボックスである。
本稿では,各入力サンプルに対して,入力モダリティと出力表現の重み付けを異なる方法で調整するマルチモーダルルーティングを提案する。
論文 参考訳(メタデータ) (2020-04-29T13:42:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。