論文の概要: Enhancing Chest X-ray Classification through Knowledge Injection in Cross-Modality Learning
- arxiv url: http://arxiv.org/abs/2502.13447v1
- Date: Wed, 19 Feb 2025 05:45:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:01:28.214563
- Title: Enhancing Chest X-ray Classification through Knowledge Injection in Cross-Modality Learning
- Title(参考訳): クロスモーダル学習における知識注入による胸部X線分類の強化
- Authors: Yang Yan, Bingqing Yue, Qiaxuan Li, Man Huang, Jingyu Chen, Zhenzhong Lan,
- Abstract要約: 本研究では,学習過程に医学的知識を明示的に注入することが,モダリティ間分類の性能に与える影響について検討した。
本稿では,CXR画像のキャプションを制御可能な知識粒度で生成する,集合論に基づく新しい知識注入フレームワークを提案する。
その結果, 微粒な医療知識を注入することで分類精度が向上し, 人為的キャプションを用いた場合の72.5%と49.9%を比較した。
- 参考スコア(独自算出の注目度): 10.592986764397677
- License:
- Abstract: The integration of artificial intelligence in medical imaging has shown tremendous potential, yet the relationship between pre-trained knowledge and performance in cross-modality learning remains unclear. This study investigates how explicitly injecting medical knowledge into the learning process affects the performance of cross-modality classification, focusing on Chest X-ray (CXR) images. We introduce a novel Set Theory-based knowledge injection framework that generates captions for CXR images with controllable knowledge granularity. Using this framework, we fine-tune CLIP model on captions with varying levels of medical information. We evaluate the model's performance through zero-shot classification on the CheXpert dataset, a benchmark for CXR classification. Our results demonstrate that injecting fine-grained medical knowledge substantially improves classification accuracy, achieving 72.5\% compared to 49.9\% when using human-generated captions. This highlights the crucial role of domain-specific knowledge in medical cross-modality learning. Furthermore, we explore the influence of knowledge density and the use of domain-specific Large Language Models (LLMs) for caption generation, finding that denser knowledge and specialized LLMs contribute to enhanced performance. This research advances medical image analysis by demonstrating the effectiveness of knowledge injection for improving automated CXR classification, paving the way for more accurate and reliable diagnostic tools.
- Abstract(参考訳): 医用画像への人工知能の統合は大きな可能性を秘めているが、訓練済みの知識とクロスモダリティ学習におけるパフォーマンスの関係はいまだ不明である。
本研究では,学習過程に医学的知識を明示的に注入することが,Chest X-ray(CXR)画像に焦点をあてて,モダリティ間分類の性能にどのように影響するかを検討する。
本稿では,CXR画像のキャプションを制御可能な知識粒度で生成する,集合論に基づく新しい知識注入フレームワークを提案する。
このフレームワークを用いて、様々なレベルの医療情報を持つキャプション上でCLIPモデルを微調整する。
CXR分類のベンチマークであるCheXpertデータセットのゼロショット分類によりモデルの性能を評価する。
その結果, 詳細な医療知識を注入すると分類精度が著しく向上し, 人為的キャプションを用いた場合の分類精度は 49.9 % に対して 72.5 % であった。
このことは、医学的クロスモダリティ学習におけるドメイン固有の知識の重要な役割を浮き彫りにする。
さらに、知識密度の影響と、キャプション生成におけるドメイン固有言語モデル(LLM)の利用について検討し、より密集した知識と専門的なLLMが性能向上に寄与していることを見出した。
本研究は,CXRの自動分類を改善するための知識注入の有効性を実証し,より正確で信頼性の高い診断ツールの道を開くことにより,医用画像解析を推し進める。
関連論文リスト
- A novel approach towards the classification of Bone Fracture from Musculoskeletal Radiography images using Attention Based Transfer Learning [0.0]
我々は,X線スキャンで骨骨折を検出するために,注意に基づく移動学習モデルを構築した。
本モデルでは, フラクチャー分類の90%以上を最先端の精度で達成する。
論文 参考訳(メタデータ) (2024-10-18T19:07:24Z) - MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Chest X-ray Image Classification: A Causal Perspective [49.87607548975686]
本稿では,CXR分類問題に対処する因果的アプローチを提案し,構造因果モデル(SCM)を構築し,CXR分類に有効な視覚情報を選択するためにバックドア調整を用いる。
実験の結果,提案手法はオープンソースNIH ChestX-ray14の分類性能に優れていた。
論文 参考訳(メタデータ) (2023-05-20T03:17:44Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Multi-Modal Learning Using Physicians Diagnostics for Optical Coherence
Tomography Classification [0.0]
我々は,光学コヒーレンス・トモグラフィーの分析に専門家の診断と知見を取り入れたフレームワークを提案する。
OCTを用いた疾患分類を改善するために,医学診断属性データセットを作成する。
論文 参考訳(メタデータ) (2022-03-20T18:37:20Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。