論文の概要: Expert-guided Clinical Text Augmentation via Query-Based Model Collaboration
- arxiv url: http://arxiv.org/abs/2509.21530v1
- Date: Thu, 25 Sep 2025 20:18:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.979528
- Title: Expert-guided Clinical Text Augmentation via Query-Based Model Collaboration
- Title(参考訳): クエリに基づくモデルコラボレーションによる専門家誘導型臨床テキスト拡張
- Authors: Dongkyu Cho, Miao Zhang, Rumi Chunara,
- Abstract要約: 大規模言語モデル(LLM)はこの目的のために強力な生成能力を示している。
医療などのハイテイク分野における彼らの応用は、臨床的に誤った情報や誤解を招くリスクがあるため、ユニークな課題を呈している。
本稿では、エキスパートレベルのドメイン知識を統合して拡張プロセスをガイドする、新しいクエリベースのモデルコラボレーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.279553235224988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation is a widely used strategy to improve model robustness and generalization by enriching training datasets with synthetic examples. While large language models (LLMs) have demonstrated strong generative capabilities for this purpose, their applications in high-stakes domains like healthcare present unique challenges due to the risk of generating clinically incorrect or misleading information. In this work, we propose a novel query-based model collaboration framework that integrates expert-level domain knowledge to guide the augmentation process to preserve critical medical information. Experiments on clinical prediction tasks demonstrate that our lightweight collaboration-based approach consistently outperforms existing LLM augmentation methods while improving safety through reduced factual errors. This framework addresses the gap between LLM augmentation potential and the safety requirements of specialized domains.
- Abstract(参考訳): データ拡張は、トレーニングデータセットを合成例で強化することにより、モデルの堅牢性と一般化を改善するために広く利用されている戦略である。
大きな言語モデル(LLM)は、この目的のために強力な生成能力を示してきたが、医療のような高度な領域におけるそれらの応用は、臨床的に誤った情報や誤解を招くリスクがあるため、ユニークな課題を呈している。
本研究では、専門家レベルのドメイン知識を統合して、重要な医療情報を保存するための拡張プロセスをガイドする、新しいクエリベースのモデルコラボレーションフレームワークを提案する。
臨床予測タスクの実験は、我々の軽量なコラボレーションベースのアプローチが既存のLCM拡張手法を一貫して上回り、事実エラーの低減による安全性の向上を実証している。
このフレームワークは、LLM増強ポテンシャルと特殊なドメインの安全性要件のギャップに対処する。
関連論文リスト
- How many patients could we save with LLM priors? [1.8421433205488897]
多施設臨床試験における有害事象の階層的ベイズモデリングのための新しい枠組みを提案する。
我々の手法は,事前学習された大言語モデル(LLM)を用いて,モデルから事前情報を直接取得する。
この方法論は、より効率的で専門家にインフォームドされた臨床試験設計の道を開く。
論文 参考訳(メタデータ) (2025-09-04T14:23:35Z) - NEARL-CLIP: Interacted Query Adaptation with Orthogonal Regularization for Medical Vision-Language Understanding [51.63264715941068]
textbfNEARL-CLIP (iunderlineNteracted quunderlineEry underlineAdaptation with ounderlineRthogonaunderlineL regularization)は、VLMベースの新しい相互モダリティ相互作用フレームワークである。
論文 参考訳(メタデータ) (2025-08-06T05:44:01Z) - Masked Clinical Modelling: A Framework for Synthetic and Augmented Survival Data Generation [1.7769033811751995]
本稿では,マスク付き言語モデリングに触発されたMCM(Masked Clinical Modelling)について紹介する。
MCMはデータ合成と条件付きデータ拡張の両方のために設計されている。
我々は,このプロトタイプをCox Proportional Hazardsモデルを用いてWHAS500データセット上で評価する。
論文 参考訳(メタデータ) (2024-10-22T08:38:46Z) - Stronger Baseline Models -- A Key Requirement for Aligning Machine Learning Research with Clinical Utility [0.0]
機械学習モデルを高精細な臨床環境にデプロイしようとするとき、よく知られた障壁が存在する。
評価において,より強力なベースラインモデルを含むと,下流効果が重要となることを実証的に示す。
本稿では,MLモデルを臨床現場でより効果的に研究・展開するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2024-09-18T16:38:37Z) - Beyond Self-Consistency: Ensemble Reasoning Boosts Consistency and Accuracy of LLMs in Cancer Staging [0.33554367023486936]
がんのステージング状態は臨床報告で確認できるが、抽出するには自然言語処理が必要である。
臨床指向の大規模言語モデルの進歩により、アルゴリズムの訓練に多大な努力を払わずに、そのような状態を抽出することが期待されている。
本研究では,モデル生成の一貫性向上を目的としたアンサンブル推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-19T19:34:35Z) - End-to-End Breast Cancer Radiotherapy Planning via LMMs with Consistency Embedding [47.360760580820966]
放射線腫瘍学の分野に適した包括的大規模マルチモーダルモデル(LMM)であるRO-LMMを提案する。
このモデルは臨床ワークフロー内の一連のタスクを効果的に管理し、臨床コンテキストの要約、放射線治療計画の提案、計画誘導されたターゲットボリュームセグメンテーションを含む。
クリーン入力処理の整合性を維持しつつ,LMMのノイズ入力に対する堅牢性を向上する,CEFTune(Consistency Embedding Fine-Tuning)技術を提案する。
論文 参考訳(メタデータ) (2023-11-27T14:49:06Z) - LLM-driven Multimodal Target Volume Contouring in Radiation Oncology [46.23891509553877]
大規模言語モデル(LLM)は、テキスト情報と画像の統合を容易にする。
LLM駆動型マルチモーダルAI,すなわちLLMSegを提案する。
提案モデルでは,従来のユニモーダルAIモデルと比較して,性能が著しく向上していることが実証された。
論文 参考訳(メタデータ) (2023-11-03T13:38:42Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。