論文の概要: RAD-PHI2: Instruction Tuning PHI-2 for Radiology
- arxiv url: http://arxiv.org/abs/2403.09725v1
- Date: Tue, 12 Mar 2024 17:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 21:44:54.582932
- Title: RAD-PHI2: Instruction Tuning PHI-2 for Radiology
- Title(参考訳): RAD-PHI2:放射線学におけるPHI-2の指導
- Authors: Mercy Ranjit, Gopinath Ganapathy, Shaury Srivastav, Tanuja Ganu, Srujana Oruganti,
- Abstract要約: 小言語モデル(SLM)は、一般的なドメイン言語理解、推論、コーディングタスクにおいて顕著なパフォーマンスを示している。
本研究では,SLMの一般放射線学知識への応用,特に症状の理解に関連する質問応答について検討する。
胸部X線レポートに関連する一般領域タスクと放射線学固有のタスクの両方でPhi-2を微調整することにより、Rad-Phi2を作成する。
- 参考スコア(独自算出の注目度): 2.774342358600601
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Small Language Models (SLMs) have shown remarkable performance in general domain language understanding, reasoning and coding tasks, but their capabilities in the medical domain, particularly concerning radiology text, is less explored. In this study, we investigate the application of SLMs for general radiology knowledge specifically question answering related to understanding of symptoms, radiological appearances of findings, differential diagnosis, assessing prognosis, and suggesting treatments w.r.t diseases pertaining to different organ systems. Additionally, we explore the utility of SLMs in handling text-related tasks with respect to radiology reports within AI-driven radiology workflows. We fine-tune Phi-2, a SLM with 2.7 billion parameters using high-quality educational content from Radiopaedia, a collaborative online radiology resource. The resulting language model, RadPhi-2-Base, exhibits the ability to address general radiology queries across various systems (e.g., chest, cardiac). Furthermore, we investigate Phi-2 for instruction tuning, enabling it to perform specific tasks. By fine-tuning Phi-2 on both general domain tasks and radiology-specific tasks related to chest X-ray reports, we create Rad-Phi2. Our empirical results reveal that Rad-Phi2 Base and Rad-Phi2 perform comparably or even outperform larger models such as Mistral-7B-Instruct-v0.2 and GPT-4 providing concise and precise answers. In summary, our work demonstrates the feasibility and effectiveness of utilizing SLMs in radiology workflows both for knowledge related queries as well as for performing specific tasks related to radiology reports thereby opening up new avenues for enhancing the quality and efficiency of radiology practice.
- Abstract(参考訳): 小言語モデル(SLM)は、一般的なドメイン言語理解、推論、コーディングタスクにおいて顕著な性能を示してきたが、医学領域におけるそれらの能力、特に放射線学のテキストについての研究はあまり行われていない。
本研究では, 症状の理解, 発見の放射線学的外観, 鑑別診断, 予後評価, および, 異なる臓器系に関連のある w.r.t 病の治療法について, SLMs の一般放射線学知識への応用について検討した。
さらに、AI駆動の放射線学ワークフローにおける放射線学レポートに対するテキスト関連タスクの処理におけるSLMの有用性について検討する。
我々は、Radiopaediaの高品質な教育コンテンツを用いて、270億のパラメータを持つSLMであるPhi-2を微調整する。
得られた言語モデルであるRadPhi-2-Baseは、様々なシステム(例えば、胸、心臓)にわたる一般的な放射線学的クエリに対処する能力を示す。
さらに、Phi-2を用いて命令チューニングを行い、特定のタスクの実行を可能にする。
胸部X線レポートに関連する一般領域タスクと放射線学固有のタスクの両方でPhi-2を微調整することにより、Rad-Phi2を作成する。
実験の結果,Rad-Phi2 ベースとRad-Phi2 は Mistral-7B-Instruct-v0.2 や GPT-4 などの大規模モデルに対して,簡潔で高精度な解答を提供することが判明した。
要約して,本研究は,放射線学のワークフローにおけるSLMの利用可能性と有効性を示し,また,放射線学の実践の質と効率を高めるための新たな道を開いた。
関連論文リスト
- RadPhi-3: Small Language Models for Radiology [3.2515490312812623]
本研究では,Phi-3-mini-4k-インストラクションを3.8Bパラメータで調整し,放射線学における様々なタスクを支援する小型言語モデルRadPhi-3を提案する。
これまでの研究では, 印象要約生成が主な課題であったが, これまでの放射線学報告とそれ以前の報告とを比較した要約生成, 放射線学レポートからのセクション抽出, 各種の病理, 管, 線, デバイスとのタグ付けなど, その他の有用な課題も検討している。
論文 参考訳(メタデータ) (2024-11-19T11:24:28Z) - Summarizing Radiology Reports Findings into Impressions [1.8964110318127383]
本稿では,最新の放射線学報告による要約性能のモデルを提案する。
また、モデル限界と放射線学知識の獲得について分析する。
我々の最高の性能モデルは、58.75/100 ROUGE-L F1で調整されたBERT-to-BERTエンコーダデコーダであった。
論文 参考訳(メタデータ) (2024-05-10T20:29:25Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - RadOnc-GPT: A Large Language Model for Radiation Oncology [42.92077650252404]
RadOnc-GPTは、アリゾナ州のマヨクリニックの放射線腫瘍学患者の大規模なデータセットに基づいて微調整された。
このモデルは、放射線治療レギュレータの生成、最適な放射線モダリティの決定、診断記述/ICDコードの提供という、3つの重要なタスクを指導チューニングする。
論文 参考訳(メタデータ) (2023-09-18T21:15:02Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Radiology-GPT: A Large Language Model for Radiology [74.07944784968372]
本稿では,ラジオロジーのための大規模言語モデルであるRadiology-GPTを紹介する。
StableLM、Dolly、LLaMAといった一般的な言語モデルと比較して、優れたパフォーマンスを示している。
放射線診断、研究、通信において大きな汎用性を示す。
論文 参考訳(メタデータ) (2023-06-14T17:57:24Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。