論文の概要: ViX-Ray: A Vietnamese Chest X-Ray Dataset for Vision-Language Models
- arxiv url: http://arxiv.org/abs/2603.15513v1
- Date: Mon, 16 Mar 2026 16:40:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.605552
- Title: ViX-Ray: A Vietnamese Chest X-Ray Dataset for Vision-Language Models
- Title(参考訳): ViX-Ray:Vision-Languageモデルのためのベトナムの胸部X線データセット
- Authors: Duy Vu Minh Nguyen, Chinh Thanh Truong, Phuc Hoang Tran, Hung Tuan Le, Nguyen Van-Thanh Dat, Trung Hieu Pham, Kiet Van Nguyen,
- Abstract要約: ViX-Rayは、ベトナムの大手病院で医師が作成した5,400個の胸部X線画像からなる新しいデータセットである。
ベトナムの放射線医学報告の領域固有の言語的特徴を明らかにするため,本データセット内の言語パターンを,上述の身体部位の頻度や診断の頻度を含む分析を行った。
以上の結果から,いくつかのモデルが臨床基礎事実と部分的に一致したアウトプットを生成する一方で,低い精度と過剰な幻覚に悩まされることが示唆された。
- 参考スコア(独自算出の注目度): 4.583386878066519
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vietnamese medical research has become an increasingly vital domain, particularly with the rise of intelligent technologies aimed at reducing time and resource burdens in clinical diagnosis. Recent advances in vision-language models (VLMs), such as Gemini and GPT-4V, have sparked a growing interest in applying AI to healthcare. However, most existing VLMs lack exposure to Vietnamese medical data, limiting their ability to generate accurate and contextually appropriate diagnostic outputs for Vietnamese patients. To address this challenge, we introduce ViX-Ray, a novel dataset comprising 5,400 Vietnamese chest X-ray images annotated with expert-written findings and impressions from physicians at a major Vietnamese hospital. We analyze linguistic patterns within the dataset, including the frequency of mentioned body parts and diagnoses, to identify domain-specific linguistic characteristics of Vietnamese radiology reports. Furthermore, we fine-tune five state-of-the-art open-source VLMs on ViX-Ray and compare their performance to leading proprietary models, GPT-4V and Gemini. Our results show that while several models generate outputs partially aligned with clinical ground truths, they often suffer from low precision and excessive hallucination, especially in impression generation. These findings not only demonstrate the complexity and challenge of our dataset but also establish ViX-Ray as a valuable benchmark for evaluating and advancing vision-language models in the Vietnamese clinical domain.
- Abstract(参考訳): ベトナムの医学研究は、特に臨床診断における時間と資源の負担を減らすことを目的とした知的技術の台頭により、ますます重要な領域となっている。
GeminiやGPT-4Vといったビジョン言語モデル(VLM)の最近の進歩は、医療にAIを適用することへの関心が高まっている。
しかしながら、既存のほとんどのVLMはベトナムの医療データへの露出を欠き、ベトナムの患者に対して正確かつ適切な診断出力を生成する能力を制限している。
この課題に対処するために、ベトナムの大手病院の医師が作成した5,400個のベトナムの胸部X線画像からなる新しいデータセットViX-Rayを紹介した。
ベトナムの放射線医学報告の領域固有の言語的特徴を明らかにするため,本データセット内の言語パターンを,上述の身体部位の頻度や診断の頻度を含む分析を行った。
さらに、VX-Ray上に5つの最先端オープンソースVLMを微調整し、その性能を主要なプロプライエタリモデルであるGPT-4VとGeminiと比較する。
以上の結果から,いくつかのモデルが臨床基礎事実に部分的に一致したアウトプットを生成する一方で,特に印象生成において,低い精度と過剰な幻覚に悩まされることが示唆された。
これらの結果は、我々のデータセットの複雑さと課題を実証するだけでなく、ベトナムの臨床領域における視覚言語モデルの評価と進歩のための貴重なベンチマークとしてViX-Rayを確立する。
関連論文リスト
- Toward a Vision-Language Foundation Model for Medical Data: Multimodal Dataset and Benchmarks for Vietnamese PET/CT Report Generation [14.023732915879336]
このデータセットは、独立患者のPET/CTボリューム2,757と、それに対応するフル長の臨床報告からなる。
私たちの知る限りでは、ベトナムでPET/CT-レポートペアを包括的に提供する最初のデータセットです。
論文 参考訳(メタデータ) (2025-09-29T13:03:57Z) - CXR-Agent: Vision-language models for chest X-ray interpretation with uncertainty aware radiology reporting [0.0]
胸部X線解釈のための基礎的視覚言語モデルとして, 一般に公開されている技術の現状を評価した。
視覚言語モデルは、しばしば自信のある言語と幻覚し、臨床解釈を遅くする。
我々は,CheXagentの線形プローブとBioViL-Tのフレーズグラウンドティングツールを用いて,エージェントベースの視覚言語によるレポート生成手法を開発した。
論文 参考訳(メタデータ) (2024-07-11T18:39:19Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - Can GPT-4V(ision) Serve Medical Applications? Case Studies on GPT-4V for
Multimodal Medical Diagnosis [59.35504779947686]
GPT-4VはOpenAIの最新のマルチモーダル診断モデルである。
評価対象は17の人体システムである。
GPT-4Vは、医用画像のモダリティと解剖学を区別する能力を示す。
疾患の診断と包括的報告作成において重大な課題に直面している。
論文 参考訳(メタデータ) (2023-10-15T18:32:27Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language Models [72.8965643836841]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。