論文の概要: RO-LLaMA: Generalist LLM for Radiation Oncology via Noise Augmentation
and Consistency Regularization
- arxiv url: http://arxiv.org/abs/2311.15876v1
- Date: Mon, 27 Nov 2023 14:49:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 14:53:40.910478
- Title: RO-LLaMA: Generalist LLM for Radiation Oncology via Noise Augmentation
and Consistency Regularization
- Title(参考訳): RO-LLaMA:騒音増強と一貫性規則化による放射線腫瘍学一般LLM
- Authors: Kwanyoung Kim, Yujin Oh, Sangjoon Park, Hwa Kyung Byun, Jin Sung Kim,
Yong Bae Kim, Jong Chul Ye
- Abstract要約: 放射線腫瘍学の分野に適した汎用汎用大言語モデル(LLM)であるRO-LLaMAを提案する。
このモデルは、臨床報告の要約などの様々なタスクに適応し、放射線腫瘍専門医の幅広いワークフローをシームレスにカバーする。
また,新しいCEFTune(Consistency Embedding Fine-Tuning)技術を提案する。
- 参考スコア(独自算出の注目度): 51.877826904868975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Artificial Intelligence (AI) have profoundly
influenced medical fields, by providing tools to reduce clinical workloads.
However, most AI models are constrained to execute uni-modal tasks, in stark
contrast to the comprehensive approaches utilized by medical professionals. To
address this, here we present RO-LLaMA, a versatile generalist large language
model (LLM) tailored for the field of radiation oncology. This model seamlessly
covers a wide range of the workflow of radiation oncologists, adept at various
tasks such as clinical report summarization, radiation therapy plan suggestion,
and plan-guided therapy target volume segmentation. In particular, to maximize
the end-to-end performance, we further present a novel Consistency Embedding
Fine-Tuning (CEFTune) technique, which boosts LLM's robustness to additional
errors at the intermediates while preserving the capability of handling clean
inputs, and creatively transform this concept into LLM-driven segmentation
framework as Consistency Embedding Segmentation (CESEG). Experimental results
on multi-centre cohort sets demonstrate our proposed RO-LLaMA's promising
performance for diverse tasks with generalization capabilities.
- Abstract(参考訳): 近年の人工知能(ai)の進歩は、臨床作業を減らすツールを提供することで医療分野に大きな影響を与えている。
しかし、ほとんどのAIモデルは、医療専門家が利用する包括的なアプローチとは対照的に、ユニモーダルタスクの実行に制約されている。
そこで本研究では,放射線腫瘍学の分野に適した汎用汎用大規模言語モデル(LLM)であるRO-LLaMAについて述べる。
本モデルは,臨床報告の要約,放射線治療計画の提案,計画誘導療法のボリュームセグメンテーションなど,幅広い放射線腫瘍専門医のワークフローをシームレスにカバーする。
特に,エンド・ツー・エンドのパフォーマンスを最大化するために,中間部における追加エラーに対するllmの頑健性を高めるとともに,クリーン入力の処理能力を維持しつつ,この概念を,一貫性埋め込みセグメンテーション(ceseg)としてllm駆動セグメンテーションフレームワークに創造的に変換する,新たな一貫性埋め込みファインチューニング(ceftune)手法を提案する。
多中心コホート集合の実験結果から,一般化機能を持つ多様なタスクに対するRO-LLaMAの有望な性能を示す。
関連論文リスト
- Transforming Multimodal Models into Action Models for Radiotherapy [39.682133213072554]
放射線治療は重要ながん治療であり、腫瘍の保存と健康な組織の根絶のバランスをとるための正確な計画が必要である。
伝統的な治療計画(TP)は、反復的で、時間がかかり、人間の専門知識に依存している。
本稿では,MLM(Multimodal foundation model)を,数発の強化学習アプローチを用いたアクションモデルに変換するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-06T09:51:28Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice through Interactive Sequential Benchmarking [58.25862290294702]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - MoRE: Multi-Modal Contrastive Pre-training with Transformers on X-Rays, ECGs, and Diagnostic Report [4.340464264725625]
我々は,X線,心電図(ECG),放射線学・心臓医学報告を相乗的に組み合わせた,新しいマルチモーダルコントラスト事前学習フレームワークを提案する。
我々はLoRA-Peftを用いて、LLMにおけるトレーニング可能なパラメータを著しく削減し、視覚変換器(ViT)に最近の線形アテンション降下戦略を取り入れ、よりスムーズなアテンションを実現する。
我々の知る限り、我々はX線、心電図、放射線学・医学レポートをこの手法と組み合わせた統合モデルを提案している。
論文 参考訳(メタデータ) (2024-10-21T17:42:41Z) - FEDKIM: Adaptive Federated Knowledge Injection into Medical Foundation Models [54.09244105445476]
本研究は,フェデレート・ラーニング・フレームワーク内で医療基盤モデルを拡張するための新しい知識注入手法であるFedKIMを紹介する。
FedKIMは軽量なローカルモデルを活用して、プライベートデータから医療知識を抽出し、この知識を集中基盤モデルに統合する。
7つのモードで12タスクを対象に実験を行い,FedKIMの有効性について検討した。
論文 参考訳(メタデータ) (2024-08-17T15:42:29Z) - Med-MoE: Mixture of Domain-Specific Experts for Lightweight Medical Vision-Language Models [17.643421997037514]
差別的, 生成的両マルチモーダル医療課題に対処する新しい枠組みを提案する。
Med-MoEの学習は、マルチモーダル医療アライメント、命令チューニングとルーティング、ドメイン固有のMoEチューニングの3つのステップで構成されている。
我々のモデルは最先端のベースラインに匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2024-04-16T02:35:17Z) - REALM: RAG-Driven Enhancement of Multimodal Electronic Health Records
Analysis via Large Language Models [19.62552013839689]
既存のモデルは、しばしば臨床上の課題に医学的文脈を欠いているため、外部知識の組み入れが促される。
本稿では、マルチモーダルEHR表現を強化するためのRAG(Retrieval-Augmented Generation)駆動フレームワークREALMを提案する。
MIMIC-III 死亡率と可読化タスクに関する実験は,ベースラインよりもREALM フレームワークの優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-10T18:27:28Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - LLM-driven Multimodal Target Volume Contouring in Radiation Oncology [46.23891509553877]
大規模言語モデル(LLM)は、テキスト情報と画像の統合を容易にする。
LLM駆動型マルチモーダルAI,すなわちLLMSegを提案する。
提案モデルでは,従来のユニモーダルAIモデルと比較して,性能が著しく向上していることが実証された。
論文 参考訳(メタデータ) (2023-11-03T13:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。