論文の概要: Few-Shot Multimodal Medical Imaging: A Theoretical Framework
- arxiv url: http://arxiv.org/abs/2511.01140v1
- Date: Mon, 03 Nov 2025 01:21:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.080112
- Title: Few-Shot Multimodal Medical Imaging: A Theoretical Framework
- Title(参考訳): Few-Shot Multimodal Medical Imaging : 理論的枠組み
- Authors: Md Talha Mohsin, Ismail Abdulrashid,
- Abstract要約: 低リソース医用撮像条件下での学習と推論を特徴付ける統一理論フレームワークを提案する。
まず,臨床的に信頼性の高い精度を達成するのに必要な最小データ量を推定するために,少数の条件下で学習目標を定式化し,サンプルの複雑さを計算する。
そこで我々は,低データ条件下での解釈可能性保証を提供する,説明安定のための公式な指標を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical imaging relies heavily on large, labeled datasets. But, unfortunately, they are not always easily accessible in clinical settings. Additionally, many practitioners often face various structural obstacles like limited data availability, fragmented data systems, and unbalanced datasets. These barriers often lead to the increased diagnostic uncertainty, underrepresentation of certain conditions, reduced model robustness, and biased diagnostic decisions. In response to these challenges, approaches such as transfer learning, meta-learning, and multimodal fusion have made great strides. However, they still need a solid theoretical justification for why they succeed or fail in situations where data is scarce. To address this gap, we propose a unified theoretical framework that characterizes learning and inference under low-resource medical imaging conditions. We first formalize the learning objective under few-shot conditions and compute sample complexity constraints to estimate the smallest quantity of data needed to achieve clinically reliable accuracy. Then based on ideas from PAC-learning and PAC-Bayesian theory, we explain how multimodal integration encourages generalization and quantifies uncertainty under sparse supervision. We further propose a formal metric for explanation stability, offering interpretability guarantees under low-data conditions. Taken together, the proposed framework establishes a principled foundation for constructing dependable, data-efficient diagnostic systems by jointly characterizing sample efficiency, uncertainty quantification, and interpretability in a unified theoretical setting.
- Abstract(参考訳): 医用画像は大きなラベル付きデータセットに大きく依存している。
しかし、残念ながら、臨床環境では必ずしも容易にアクセスできない。
さらに、多くの実践者は、限られたデータ可用性、断片化されたデータシステム、バランスの取れていないデータセットなど、さまざまな構造上の障害に直面します。
これらの障壁は、診断の不確実性の増加、特定の条件の不足、モデルの堅牢性の低下、診断決定のバイアスにつながることが多い。
これらの課題に対して、トランスファーラーニング、メタラーニング、マルチモーダル融合といったアプローチは大きな進歩を遂げた。
しかし、データが不足している状況において、なぜ成功するか、失敗するのかについては、しっかりとした理論上の正当化が必要である。
このギャップに対処するために、低リソースの医療画像条件下での学習と推論を特徴付ける統一的な理論的枠組みを提案する。
まず,臨床的に信頼性の高い精度を達成するのに必要な最小データ量を推定するために,数ショット条件下で学習目標を定式化し,サンプルの複雑性制約を計算する。
次に、PAC-ラーニングとPAC-ベイジアン理論の考え方に基づき、マルチモーダル統合が一般化を促進し、スパース・インスペクションの下で不確実性を定量化する方法について説明する。
さらに、低データ条件下での解釈可能性保証を提供する、説明安定のための公式な指標を提案する。
提案フレームワークは, 信頼性の高いデータ効率診断システムを構築するための基本的基盤を, 統一理論的条件下での標本効率, 不確実性定量化, 解釈可能性の両立により確立する。
関連論文リスト
- Learning Contrastive Multimodal Fusion with Improved Modality Dropout for Disease Detection and Prediction [17.717216490402482]
改良されたモダリティドロップアウトとコントラスト学習を統合した,新しいマルチモーダル学習フレームワークを提案する。
疾患検出および予測タスクのための大規模臨床データセットの枠組みを検証した。
本研究は,マルチモーダル学習におけるアプローチの有効性,効率,一般化性を明らかにするものである。
論文 参考訳(メタデータ) (2025-09-22T18:12:12Z) - Imputation-Powered Inference [2.676349883103404]
Imputation-powered Inference (IPI) は、ブラックボックス計算の柔軟性と、完全に観測されたデータを用いたバイアス補正を組み合わせたモデルリーンフレームワークである。
IPIは、二重頑健な推定値とナイーブな計算値の両方が名目的カバレッジを達成できない設定において、統計的妥当性を維持しながら、完全ケース分析と比較して、サブポピュレーション効率を大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2025-09-17T07:48:54Z) - An Uncertainty-Aware Dynamic Decision Framework for Progressive Multi-Omics Integration in Classification Tasks [6.736267874971369]
我々は、オミクスデータ分類のための不確実性を考慮したマルチビュー動的決定フレームワークを提案する。
ヘテロジニアスなモジュラリティを統合するために、Dempster-Shafer理論に基づく融合戦略を用いる。
3つのデータセットでは、50%以上のケースが、単一のオミクスモダリティを使用して正確に分類された。
論文 参考訳(メタデータ) (2025-06-20T13:44:14Z) - Incomplete Modality Disentangled Representation for Ophthalmic Disease Grading and Diagnosis [16.95583564875497]
本稿では,不完全なモダリティ・ディアンタングル表現(IMDR)戦略を提案する。
4つのマルチモーダルデータセットの実験により、提案したIMDRが最先端の手法を大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-02-17T12:10:35Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Causal Representation Learning from Multimodal Biomedical Observations [57.00712157758845]
バイオメディカルデータセットの理解を容易にするために,マルチモーダルデータに対するフレキシブルな識別条件と原理的手法を開発した。
主要な理論的貢献は、モジュラリティ間の因果関係の構造的空間性である。
実世界のヒト表現型データセットの結果は、確立された生物医学研究と一致している。
論文 参考訳(メタデータ) (2024-11-10T16:40:27Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - MMLN: Leveraging Domain Knowledge for Multimodal Diagnosis [10.133715767542386]
肺疾患診断のための知識駆動型およびデータ駆動型フレームワークを提案する。
本研究は, 臨床医学ガイドラインに従って診断規則を定式化し, テキストデータから規則の重みを学習する。
テキストと画像データからなるマルチモーダル融合は、肺疾患の限界確率を推定するために設計されている。
論文 参考訳(メタデータ) (2022-02-09T04:12:30Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。