論文の概要: ChexFract: From General to Specialized - Enhancing Fracture Description Generation
- arxiv url: http://arxiv.org/abs/2511.07983v1
- Date: Wed, 12 Nov 2025 01:32:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.581099
- Title: ChexFract: From General to Specialized - Enhancing Fracture Description Generation
- Title(参考訳): ChexFract: 一般から特殊化 - 破壊記述生成の促進
- Authors: Nikolay Nechaev, Evgeniia Przhezdzetskaia, Dmitry Umerenkov, Dmitry V. Dylov,
- Abstract要約: 骨折の診断と診断のための専門モデルを開発した。
我々はMAIRA-2とCheXagentのエンコーダを用いて、骨折特異的視覚言語モデルを訓練する。
われわれは, 骨折報告モデルを公表し, 稀な病態の正確な報告を行う上で, 今後の研究を円滑に進める。
- 参考スコア(独自算出の注目度): 1.9716542587893775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating accurate and clinically meaningful radiology reports from chest X-ray images remains a significant challenge in medical AI. While recent vision-language models achieve strong results in general radiology report generation, they often fail to adequately describe rare but clinically important pathologies like fractures. This work addresses this gap by developing specialized models for fracture pathology detection and description. We train fracture-specific vision-language models with encoders from MAIRA-2 and CheXagent, demonstrating significant improvements over general-purpose models in generating accurate fracture descriptions. Analysis of model outputs by fracture type, location, and age reveals distinct strengths and limitations of current vision-language model architectures. We publicly release our best-performing fracture-reporting model, facilitating future research in accurate reporting of rare pathologies.
- Abstract(参考訳): 胸部X線画像から正確な、臨床的に有意義な放射線診断レポートを生成することは、医療AIにおいて重要な課題である。
最近の視覚言語モデルは、一般的な放射線学の報告生成において強力な結果をもたらすが、骨折のような稀だが臨床的に重要な病態を適切に記述することができないことが多い。
本研究は, 骨折の診断と記述のための専門モデルを開発することで, このギャップに対処する。
我々は,MAIRA-2とCheXagentのエンコーダを用いたフラクチャー固有視覚言語モデルを訓練し,高精度なフラクチャー記述を生成するための汎用モデルよりも大幅に改善されたことを示す。
フラクチャータイプ,位置,年齢によるモデル出力の解析は,現在の視覚言語モデルアーキテクチャの強みと限界を明らかにしている。
われわれは, 骨折報告モデルを公表し, 稀な病態の正確な報告を行う上で, 今後の研究を円滑に進める。
関連論文リスト
- Unsupervised Deep Generative Models for Anomaly Detection in Neuroimaging: A Systematic Scoping Review [0.8373057326694192]
教師なしの深層生成モデルは、脳イメージングにおける異常の検出とセグメンテーションのための教師付き方法に代わる有望な代替手段として浮上している。
これらのモデルは、健康的なデータにのみ訓練することができ、学習された規範的脳構造からの逸脱として異常を識別することができる。
The PRISMA-Guided scoping review synthesis is recent work on unsupervised deep generative model for anomaly detection in neuroimaging。
論文 参考訳(メタデータ) (2025-10-16T09:02:52Z) - OrthoInsight: Rib Fracture Diagnosis and Report Generation Based on Multi-Modal Large Models [0.49478969093606673]
骨折診断と報告生成のための多モード深層学習フレームワークOrthoInsightを提案する。
骨折検出のためのYOLOv9モデル、臨床コンテキストを検索するための医療知識グラフ、診断レポートを生成するための微調整されたLLaVA言語モデルを統合する。
28,675枚のCT画像と専門家の報告から評価し、診断精度、コンテンツ完全性、論理的コヒーレンス、臨床ガイダンス値にまたがる高いパフォーマンスを平均4.28で達成している。
論文 参考訳(メタデータ) (2025-07-18T15:01:44Z) - Causal Disentanglement for Robust Long-tail Medical Image Generation [80.15257897500578]
そこで本研究では,病的特徴と構造的特徴を独立に生成する新しい医用画像生成フレームワークを提案する。
本稿では,病理所見から導かれる拡散モデルを用いて病理像をモデル化し,種々の対物画像の生成を可能にする。
論文 参考訳(メタデータ) (2025-04-20T01:54:18Z) - Abn-BLIP: Abnormality-aligned Bootstrapping Language-Image Pre-training for Pulmonary Embolism Diagnosis and Report Generation from CTPA [6.257940655794537]
Abn-BLIPは放射線診断の精度と包括性を生成するために異常所見の整合を図った高度な診断モデルである。
以上の結果から,Abn-BLIPは最先端の医療ビジョン言語モデルおよび3Dレポート生成手法よりも精度および臨床関連性が高いことがわかった。
論文 参考訳(メタデータ) (2025-03-03T20:13:39Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - Self-supervised vision-langage alignment of deep learning representations for bone X-rays analysis [53.809054774037214]
本稿では, 骨X線とフレンチレポートを組み合わせることで, 視覚言語による事前訓練を活用することを提案する。
骨X線表現にまつわる埋め込み空間を形成するために、フランスの報告を統合する最初の研究である。
論文 参考訳(メタデータ) (2024-05-14T19:53:20Z) - Expert Uncertainty and Severity Aware Chest X-Ray Classification by
Multi-Relationship Graph Learning [48.29204631769816]
我々はCXRレポートから病気ラベルを再抽出し,重症度と分類の不確実性を考慮し,より現実的になるようにした。
以上の結果から, 疾患の重症度と不確実性を考慮したモデルが, 従来の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-06T19:19:41Z) - Boosting Radiology Report Generation by Infusing Comparison Prior [7.054671146863795]
近年の変圧器を用いたモデルでは胸部X線画像から放射線学レポートを生成するために大きな進歩を遂げている。
これらのモデルは、しばしば事前の知識を欠いているため、誤って存在しない事前試験を参照する合成レポートが生成される。
本稿では,ルールに基づくラベル付け手法を用いて,放射線学報告から先行情報を抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-05-08T09:12:44Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。