論文の概要: Morphology-Aware KOA Classification: Integrating Graph Priors with Vision Models
- arxiv url: http://arxiv.org/abs/2510.21801v1
- Date: Mon, 20 Oct 2025 17:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.528203
- Title: Morphology-Aware KOA Classification: Integrating Graph Priors with Vision Models
- Title(参考訳): 形態認識型KOA分類:グラフ優先と視覚モデルの統合
- Authors: Marouane Tliba, Mohamed Amine Kerkouri, Yassine Nasser, Nour Aburaed, Aladine Chetouani, Ulas Bagci, Rachid Jennane,
- Abstract要約: 解剖学的構造と放射線学的特徴を組み合わせた新しい枠組みを提案する。
提案手法は,幾何学的インフォームドグラフ埋め込みとラジオグラフィー特徴のアライメントを強制する。
変形性関節症のデータセットの実験では、我々のアプローチが単一モダリティのベースラインを最大10%の精度で越えていることが示されている。
- 参考スコア(独自算出の注目度): 13.437469558862084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knee osteoarthritis (KOA) diagnosis from radiographs remains challenging due to the subtle morphological details that standard deep learning models struggle to capture effectively. We propose a novel multimodal framework that combines anatomical structure with radiographic features by integrating a morphological graph representation - derived from Segment Anything Model (SAM) segmentations - with a vision encoder. Our approach enforces alignment between geometry-informed graph embeddings and radiographic features through mutual information maximization, significantly improving KOA classification accuracy. By constructing graphs from anatomical features, we introduce explicit morphological priors that mirror clinical assessment criteria, enriching the feature space and enhancing the model's inductive bias. Experiments on the Osteoarthritis Initiative dataset demonstrate that our approach surpasses single-modality baselines by up to 10\% in accuracy (reaching nearly 80\%), while outperforming existing state-of-the-art methods by 8\% in accuracy and 11\% in F1 score. These results underscore the critical importance of incorporating anatomical structure into radiographic analysis for accurate KOA severity grading.
- Abstract(参考訳): ラジオグラフィーによる膝関節症 (KOA) の診断は, 標準的な深層学習モデルが効果的に捉えるのに苦慮する微妙な形態的詳細のため, いまだに困難である。
本稿では,Segment Anything Model (SAM)セグメンテーションから派生した形態グラフ表現を視覚エンコーダと統合することにより,解剖学的構造と放射線学的特徴を組み合わせた新しいマルチモーダルフレームワークを提案する。
提案手法は,相互情報の最大化により,幾何インフォームドグラフの埋め込みとラジオグラフィの特徴の整合性を強化し,KOA分類精度を大幅に向上させる。
解剖学的特徴からグラフを構築することにより、臨床評価基準を反映し、特徴空間を充実させ、モデルの帰納バイアスを増大させる明示的な形態学的先行性を導入する。
変形性膝関節症のデータセットを用いた実験では,我々のアプローチは1つのモダリティのベースラインを最大で10 %(80 %)超過し,既存の最先端の手法では8 %,F1 では11 %超過した。
これらの結果は、正確なKOA重症度評価のためのX線分析に解剖学的構造を取り入れることの重要性を浮き彫りにした。
関連論文リスト
- Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - GRASPing Anatomy to Improve Pathology Segmentation [67.98147643529309]
本稿では,病的セグメンテーションモデルを強化するモジュール型プラグイン・アンド・プレイフレームワークGRASPを紹介する。
2つのPET/CTデータセット上でGRASPを評価し、系統的アブレーション研究を行い、フレームワークの内部動作について検討する。
論文 参考訳(メタデータ) (2025-08-05T12:26:36Z) - CheXLearner: Text-Guided Fine-Grained Representation Learning for Progression Detection [14.414457048968439]
我々は、解剖学的領域の検出、構造的アライメント、意味的ガイダンスを統合する最初のエンドツーエンドフレームワークであるCheXLearnerを紹介する。
提案したMed-Manifold Alignment Module (Med-MAM) は双曲幾何学を利用して解剖学的構造を強固に整列させる。
本モデルでは,下流疾患分類における平均AUCスコアが91.52%に達し,その優れた特徴表現が検証された。
論文 参考訳(メタデータ) (2025-05-11T08:51:38Z) - Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - AFiRe: Anatomy-Driven Self-Supervised Learning for Fine-Grained Representation in Radiographic Images [7.647881928269929]
放射線画像解析(AFiRe)における微細表現向上のための解剖学駆動型自己教師型フレームワークを提案する。
AFiReの中核となる考え方は、解剖学的一貫性とVision Transformerのユニークなトークン処理特性を整合させることである。
実験結果から, AFiReは, 最先端のコントラスト学習法と比較して, より凝集性の高い特徴クラスタを実現することができることがわかった。
論文 参考訳(メタデータ) (2025-04-15T08:29:54Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。