論文の概要: RadOnc-GPT: A Large Language Model for Radiation Oncology
- arxiv url: http://arxiv.org/abs/2309.10160v1
- Date: Mon, 18 Sep 2023 21:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:28:13.771240
- Title: RadOnc-GPT: A Large Language Model for Radiation Oncology
- Title(参考訳): RadOnc-GPT:放射線腫瘍学のための大規模言語モデル
- Authors: Zhengliang Liu, Peilong Wang, Yiwei Li, Jason Holmes, Peng Shu, Lian
Zhang, Chenbin Liu, Ninghao Liu, Dajiang Zhu, Xiang Li, Quanzheng Li, Samir
H. Patel, Terence T. Sio, Tianming Liu, Wei Liu
- Abstract要約: RadOnc-GPTはマヨクリニックの放射線腫瘍学患者記録と臨床記録の大規模なデータセットに基づいて微調整された。
このモデルは、放射線治療レギュレータの生成、最適な放射線モダリティの決定、診断記述/ICDコードの提供という、3つの重要なタスクを指導チューニングする。
- 参考スコア(独自算出の注目度): 42.92077650252404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents RadOnc-GPT, a large language model specialized for
radiation oncology through advanced tuning methods. RadOnc-GPT was finetuned on
a large dataset of radiation oncology patient records and clinical notes from
the Mayo Clinic. The model employs instruction tuning on three key tasks -
generating radiotherapy treatment regimens, determining optimal radiation
modalities, and providing diagnostic descriptions/ICD codes based on patient
diagnostic details. Evaluations conducted by having radiation oncologists
compare RadOnc-GPT impressions to general large language model impressions
showed that RadOnc-GPT generated outputs with significantly improved clarity,
specificity, and clinical relevance. The study demonstrated the potential of
using large language models fine-tuned using domain-specific knowledge like
RadOnc-GPT to achieve transformational capabilities in highly specialized
healthcare fields such as radiation oncology.
- Abstract(参考訳): 本稿では,放射線オンコロジーに特化した大規模言語モデルRadOnc-GPTを提案する。
RadOnc-GPTはマヨクリニックの放射線腫瘍学患者記録と臨床記録の大規模なデータセットに基づいて微調整された。
このモデルでは,放射線治療における3つの重要なタスク生成手法を指導し,最適な放射線モダリティを判定し,患者診断の詳細に基づいて診断記述・ICDコードを提供する。
また,RadOnc-GPT印象を一般言語モデル印象と比較した結果,RadOnc-GPTは明瞭度,特異性,臨床関連性が有意に向上した。
この研究は、RadOnc-GPTのようなドメイン固有の知識を用いて、放射線腫瘍学のような高度に専門化された医療分野における変換能力を達成するために、大規模言語モデルを使用することの可能性を示した。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - MGH Radiology Llama: A Llama 3 70B Model for Radiology [27.575944159578786]
本稿では,高度な放射線学に焦点を当てた大規模言語モデルMGH Radiology Llamaを提案する。
Llama 3 70Bモデルを使用して開発され、Radiology-GPTやRadiology-Llama2といった従来のドメイン固有モデルをベースにしている。
従来の指標とGPT-4に基づく評価の両方を取り入れた評価では,汎用LLMよりも高い性能を示す。
論文 参考訳(メタデータ) (2024-08-13T01:30:03Z) - RAD-PHI2: Instruction Tuning PHI-2 for Radiology [2.774342358600601]
小言語モデル(SLM)は、一般的なドメイン言語理解、推論、コーディングタスクにおいて顕著なパフォーマンスを示している。
本研究では,SLMの一般放射線学知識への応用,特に症状の理解に関連する質問応答について検討する。
胸部X線レポートに関連する一般領域タスクと放射線学固有のタスクの両方でPhi-2を微調整することにより、Rad-Phi2を作成する。
論文 参考訳(メタデータ) (2024-03-12T17:27:22Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Radiology-GPT: A Large Language Model for Radiology [74.07944784968372]
本稿では,ラジオロジーのための大規模言語モデルであるRadiology-GPTを紹介する。
StableLM、Dolly、LLaMAといった一般的な言語モデルと比較して、優れたパフォーマンスを示している。
放射線診断、研究、通信において大きな汎用性を示す。
論文 参考訳(メタデータ) (2023-06-14T17:57:24Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。