論文の概要: MOSAIC: A Multilingual, Taxonomy-Agnostic, and Computationally Efficient Approach for Radiological Report Classification
- arxiv url: http://arxiv.org/abs/2509.04471v1
- Date: Fri, 29 Aug 2025 14:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.307228
- Title: MOSAIC: A Multilingual, Taxonomy-Agnostic, and Computationally Efficient Approach for Radiological Report Classification
- Title(参考訳): MOSAIC : 多言語・分類・不可知的・計算学的手法による放射線学的報告分類
- Authors: Alice Schiavone, Marco Fraccaro, Lea Marie Pehrson, Silvia Ingala, Rasmus Bonnevie, Michael Bachmann Nielsen, Vincent Beliveau, Melanie Ganz, Desmond Elliott,
- Abstract要約: 放射線学的報告分類のための多言語・分類学的・計算学的アプローチであるMOSAICを紹介する。
コンパクトなオープンアクセス言語モデル(MedGemma-4B)をベースとして、MOSAICはゼロプロンプト/フェーショットファインタニングと軽量ファインタニングの両方をサポートしている。
我々はMOSAICを、英語、スペイン語、フランス語、デンマーク語で7つのデータセットにまたがって評価し、複数の画像のモダリティとラベルのモダリティにまたがる。
- 参考スコア(独自算出の注目度): 8.266250751994187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiology reports contain rich clinical information that can be used to train imaging models without relying on costly manual annotation. However, existing approaches face critical limitations: rule-based methods struggle with linguistic variability, supervised models require large annotated datasets, and recent LLM-based systems depend on closed-source or resource-intensive models that are unsuitable for clinical use. Moreover, current solutions are largely restricted to English and single-modality, single-taxonomy datasets. We introduce MOSAIC, a multilingual, taxonomy-agnostic, and computationally efficient approach for radiological report classification. Built on a compact open-access language model (MedGemma-4B), MOSAIC supports both zero-/few-shot prompting and lightweight fine-tuning, enabling deployment on consumer-grade GPUs. We evaluate MOSAIC across seven datasets in English, Spanish, French, and Danish, spanning multiple imaging modalities and label taxonomies. The model achieves a mean macro F1 score of 88 across five chest X-ray datasets, approaching or exceeding expert-level performance, while requiring only 24 GB of GPU memory. With data augmentation, as few as 80 annotated samples are sufficient to reach a weighted F1 score of 82 on Danish reports, compared to 86 with the full 1600-sample training set. MOSAIC offers a practical alternative to large or proprietary LLMs in clinical settings. Code and models are open-source. We invite the community to evaluate and extend MOSAIC on new languages, taxonomies, and modalities.
- Abstract(参考訳): 放射線医学報告には、高価な手動アノテーションに頼ることなく、画像モデルのトレーニングに使用できる豊富な臨床情報が含まれている。
しかし、既存のアプローチは重要な制限に直面している: ルールベースの手法は言語的変動に苦しむ、教師付きモデルは大きな注釈付きデータセットを必要とする、そして最近のLCMベースのシステムは、臨床利用には適さないクローズドソースまたはリソース集約モデルに依存している。
さらに、現在のソリューションは、主に英語と単一モダリティ、単一タコノミーデータセットに制限されている。
放射線学的報告分類のための多言語・分類学的・計算学的アプローチであるMOSAICを紹介する。
コンパクトなオープンアクセス言語モデル(MedGemma-4B)に基づいて構築されたMOSAICは、ゼロショットプロンプトと軽量な微調整の両方をサポートし、コンシューマグレードのGPUへのデプロイを可能にする。
我々は、MOSAICを英語、スペイン語、フランス語、デンマーク語で7つのデータセットにまたがって評価し、複数の画像モダリティとラベル分類を網羅した。
このモデルは、5つの胸部X線データセットの平均マクロF1スコア88を達成し、専門家レベルのパフォーマンスに近づいたり超えたりしながら、わずか24GBのGPUメモリしか必要としない。
データ拡張では、デンマークのレポートの重み付けされたF1スコアが82に到達するのに、80個の注釈付きサンプルが十分である。
MOSAICは、臨床環境では、大型またはプロプライエタリなLSMに代わる実用的な代替手段を提供する。
コードとモデルはオープンソースである。
我々は、新しい言語、分類学、モダリティに関するMOSAICの評価と拡張をコミュニティに依頼する。
関連論文リスト
- Quantized Large Language Models in Biomedical Natural Language Processing: Evaluation and Recommendation [23.003923723432436]
本研究では,12種類の大規模言語モデルに対する量子化の影響を系統的に評価した。
量子化はGPUメモリの要求を最大75%減らし、様々なタスクでモデル性能を保っていることを示す。
論文 参考訳(メタデータ) (2025-09-04T04:18:45Z) - Towards Open Foundation Language Model and Corpus for Macedonian: A Low-Resource Language [4.276396344868335]
LLM(Large Language Models)の採用を促進するリソースを作成します。
これまでにマケドニア最大のコーパスを収集し、40GBのテキストデータと3.5Bの単語を収集した。
我々は、キュレートされたデータセットに基づいて、最先端の8B-パラメータモデルであるinter domestic-yakをトレーニングし、8つのベースラインモデルに対して評価する。
論文 参考訳(メタデータ) (2025-06-11T09:46:58Z) - Optimized Text Embedding Models and Benchmarks for Amharic Passage Retrieval [49.1574468325115]
トレーニング済みのAmharic BERTとRoBERTaのバックボーンをベースとした,Amharic固有の高密度検索モデルを提案する。
提案したRoBERTa-Base-Amharic-Embedモデル(110Mパラメータ)は,MRR@10の相対的な改善を17.6%達成する。
RoBERTa-Medium-Amharic-Embed (42M)のようなよりコンパクトな派生型は13倍以上小さいまま競争力を維持している。
論文 参考訳(メタデータ) (2025-05-25T23:06:20Z) - InkubaLM: A small language model for low-resource African languages [9.426968756845389]
InkubaLMは0.4億のパラメータを持つ小さな言語モデルである。
パラメータ数が大幅に大きいモデルに匹敵するパフォーマンスを実現する。
複数の言語にまたがる顕著な一貫性を示す。
論文 参考訳(メタデータ) (2024-08-30T05:42:31Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - ColBERT-XM: A Modular Multi-Vector Representation Model for Zero-Shot
Multilingual Information Retrieval [10.664434993386523]
現在のアプローチは、非英語言語における高品質なラベル付きデータの欠如を回避している。
本稿では,単一の高リソース言語のリッチデータから学習するモジュール型高密度検索モデルを提案する。
論文 参考訳(メタデータ) (2024-02-23T02:21:24Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。