論文の概要: Radiology-Llama2: Best-in-Class Large Language Model for Radiology
- arxiv url: http://arxiv.org/abs/2309.06419v1
- Date: Tue, 29 Aug 2023 17:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-17 14:00:45.568198
- Title: Radiology-Llama2: Best-in-Class Large Language Model for Radiology
- Title(参考訳): Radiology-Llama2: 放射線学のためのクラス別大規模言語モデル
- Authors: Zhengliang Liu, Yiwei Li, Peng Shu, Aoxiao Zhong, Longtao Yang, Chao
Ju, Zihao Wu, Chong Ma, Jie Luo, Cheng Chen, Sekeun Kim, Jiang Hu, Haixing
Dai, Lin Zhao, Dajiang Zhu, Jun Liu, Wei Liu, Dinggang Shen, Tianming Liu,
Quanzheng Li, and Xiang Li
- Abstract要約: 本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 71.27700230067168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Radiology-Llama2, a large language model specialized
for radiology through a process known as instruction tuning. Radiology-Llama2
is based on the Llama2 architecture and further trained on a large dataset of
radiology reports to generate coherent and clinically useful impressions from
radiological findings. Quantitative evaluations using ROUGE metrics on the
MIMIC-CXR and OpenI datasets demonstrate that Radiology-Llama2 achieves
state-of-the-art performance compared to other generative language models, with
a Rouge-1 score of 0.4834 on MIMIC-CXR and 0.4185 on OpenI. Additional
assessments by radiology experts highlight the model's strengths in
understandability, coherence, relevance, conciseness, and clinical utility. The
work illustrates the potential of localized language models designed and tuned
for specialized domains like radiology. When properly evaluated and deployed,
such models can transform fields like radiology by automating rote tasks and
enhancing human expertise.
- Abstract(参考訳): 本稿では,放射線学に特化した大規模言語モデルであるradiology-llama2について紹介する。
Radiology-Llama2 は Llama2 アーキテクチャに基づいており、ラジオロジー報告の大規模なデータセットに基づいてさらに訓練され、放射線学的発見から一貫性があり臨床的に有用な印象を生み出す。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が他の生成言語モデルと比較して最先端のパフォーマンスを達成することを示した。
放射線学の専門家によるさらなる評価は、理解可能性、一貫性、妥当性、簡潔さ、臨床的有用性におけるモデルの強みを強調している。
この研究は、放射線学のような専門分野向けに設計・調整されたローカライズド言語モデルの可能性を示している。
適切な評価とデプロイを行うと、ロテタスクの自動化と人間の専門性の向上によって、放射線学のような分野を変換することができる。
関連論文リスト
- Large Model driven Radiology Report Generation with Clinical Quality
Reinforcement Learning [16.849933628738277]
放射線学報告生成 (RRG) は, 放射線技師の作業量削減の可能性から注目されている。
本稿では,新しいRRG法である textbfLM-RRG について紹介する。
MIMIC-CXRおよびIU-Xrayデータセットを用いた実験により,本手法が技術状況よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-11T13:47:11Z) - Radiology-Aware Model-Based Evaluation Metric for Report Generation [5.168471027680258]
提案手法は,放射線学領域に適応したCOMETアーキテクチャを用いて,機械による放射線学レポートの自動評価手法を提案する。
我々は、放射線学知識グラフであるRadGraphでトレーニングされた4つの医学的指向のモデルチェックポイントをトレーニングし、公開する。
以上の結果から,BERTscore,BLEU,CheXbertのスコアと中程度の相関が得られた。
論文 参考訳(メタデータ) (2023-11-28T13:08:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Evaluating Large Language Models for Radiology Natural Language
Processing [68.98847776913381]
大規模言語モデル(LLM)の台頭は、自然言語処理(NLP)分野における重要な転換点となっている。
本研究は, 放射線学報告の解釈において, 30 個の LLM を批判的に評価することにより, このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-07-25T17:57:18Z) - Radiology-GPT: A Large Language Model for Radiology [45.00809146416551]
本稿では,ラジオロジーのための大規模言語モデルであるRadiology-GPTを紹介する。
StableLM、Dolly、LLaMAといった一般的な言語モデルと比較して、優れたパフォーマンスを示している。
放射線診断、研究、通信において大きな汎用性を示す。
論文 参考訳(メタデータ) (2023-06-14T17:57:24Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z) - Generating Radiology Reports via Memory-driven Transformer [38.30011851429407]
本稿では,メモリ駆動型トランスフォーマを用いた放射線学レポートの作成を提案する。
IU X線とMIMIC-CXRの2つの代表的な放射線学報告データセットの実験結果
論文 参考訳(メタデータ) (2020-10-30T04:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。