論文の概要: Health Text Simplification: An Annotated Corpus for Digestive Cancer Education and Novel Strategies for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.15043v3
- Date: Sun, 10 Nov 2024 19:47:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:06:25.018728
- Title: Health Text Simplification: An Annotated Corpus for Digestive Cancer Education and Novel Strategies for Reinforcement Learning
- Title(参考訳): 健康テキストの簡易化:消化器癌教育のための注釈付きコーパスと強化学習のための新しい戦略
- Authors: Md Mushfiqur Rahman, Mohammad Sabik Irbaz, Kai North, Michelle S. Williams, Marcos Zampieri, Kevin Lybarger,
- Abstract要約: 普及とリテラシーを高めるために、健康情報における高パフォーマンステキスト単純化モデルが不可欠である。
アメリカがん学会, 疾病対策センター, 国立がん研究所の教育コンテンツを含む, 健康テキストの簡易化研究に適した, がん教材の同時コーパスを紹介する。
大規模言語モデル (LLM) に基づく単純化手法について検討し, 微調整, 強化学習 (RL) , 人間のフィードバックによる強化学習 (RLHF) , ドメイン適応, プロンプトに基づくアプローチについて検討する。
- 参考スコア(独自算出の注目度): 8.890140316730964
- License:
- Abstract: Objective: The reading level of health educational materials significantly influences the understandability and accessibility of the information, particularly for minoritized populations. Many patient educational resources surpass the reading level and complexity of widely accepted standards. There is a critical need for high-performing text simplification models in health information to enhance dissemination and literacy. This need is particularly acute in cancer education, where effective prevention and screening education can substantially reduce morbidity and mortality. Methods: We introduce Simplified Digestive Cancer (SimpleDC), a parallel corpus of cancer education materials tailored for health text simplification research, comprising educational content from the American Cancer Society, Centers for Disease Control and Prevention, and National Cancer Institute. Utilizing SimpleDC alongside the existing Med-EASi corpus, we explore Large Language Model (LLM)-based simplification methods, including fine-tuning, reinforcement learning (RL), reinforcement learning with human feedback (RLHF), domain adaptation, and prompt-based approaches. Our experimentation encompasses Llama 2 and GPT-4. A novel RLHF reward function is introduced, featuring a lightweight model adept at distinguishing between original and simplified texts, thereby enhancing the model's effectiveness with unlabeled data. Results: Fine-tuned Llama 2 models demonstrated high performance across various metrics. Our innovative RLHF reward function surpassed existing RL text simplification reward functions in effectiveness. The results underscore that RL/RLHF can augment fine-tuning, facilitating model training on unlabeled text and improving performance.
- Abstract(参考訳): 目的: 健康教育資料の読解レベルは情報の理解可能性やアクセシビリティに大きく影響する。
多くの患者教育資源は、広く受け入れられている標準の読解レベルと複雑さを超越している。
普及とリテラシーを高めるために、健康情報における高パフォーマンステキスト単純化モデルが不可欠である。
この必要性は特にがん教育において急激であり、効果的な予防とスクリーニング教育が致命率と死亡率を大幅に低下させる可能性がある。
方法: アメリカがん学会, 疾病予防センター, 国立がん研究所の教育内容を含む, 健康テキストの簡易化研究に適した, がん教材の並列コーパスであるSimpleDCを紹介する。
既存のMed-EASiコーパスとともにSimpleDCを利用することで、微調整、強化学習(RL)、人間フィードバックによる強化学習(RLHF)、ドメイン適応、プロンプトベースアプローチなど、Large Language Model(LLM)に基づく単純化手法を検討する。
実験ではLlama 2とGPT-4を含む。
新規なRLHF報酬関数を導入し、オリジナルテキストと簡易テキストの区別が可能な軽量モデルを導入し、未ラベルデータによるモデルの有効性を高める。
結果: 微調整のLlama 2モデルは様々な指標で高い性能を示した。
我々の革新的なRLHF報酬関数は、既存のRLテキストの簡易化報酬関数をはるかに上回った。
その結果、RL/RLHFは微調整を強化し、ラベルなしテキストのモデルトレーニングを容易にし、性能を向上できることがわかった。
関連論文リスト
- Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - RAG-RLRC-LaySum at BioLaySumm: Integrating Retrieval-Augmented Generation and Readability Control for Layman Summarization of Biomedical Texts [23.48211785667272]
本稿では,RAG-RLRC-LaySumフレームワークについて紹介する。
RAG-RLRC-LaySumフレームワークは、科学的知識を効果的に民主化し、生物医学的な発見への公的な関与を高める。
論文 参考訳(メタデータ) (2024-05-21T20:03:40Z) - RLHF Deciphered: A Critical Analysis of Reinforcement Learning from Human Feedback for LLMs [49.386699863989335]
大きな言語モデル(LLM)を訓練し、人間の効果的なアシスタントとして機能させるには、慎重に検討する必要がある。
有望なアプローチとして、人間からのフィードバック(RLHF)からの強化学習がある。
本稿では、強化学習原理のレンズを通してRLHFを分析し、その基礎を理解する。
論文 参考訳(メタデータ) (2024-04-12T15:54:15Z) - Applying Large Language Models for Causal Structure Learning in Non
Small Cell Lung Cancer [8.248361703850774]
因果発見は、医療AI研究において重要な役割を担っている。
本稿では,大言語モデルを用いて,因果発見におけるエッジの方向性を決定する問題について検討する。
その結果,LLMは因果グラフのエッジの方向を正確に予測でき,既存の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T09:31:14Z) - Medical Text Simplification: Optimizing for Readability with
Unlikelihood Training and Reranked Beam Search Decoding [18.06012822620814]
テキストの単純化は、医学などの専門分野におけるコミュニケーションギャップを埋めるために、AIのますます有用な応用として現れてきた。
顕著な進歩にもかかわらず、医学的単純化の手法は、品質と多様性の低い生成されたテキストをもたらすことがある。
そこで本研究では,より単純な用語を生成するための新たな異義性損失と,シンプルさを最適化する再帰的ビーム探索復号法を提案する。
論文 参考訳(メタデータ) (2023-10-17T12:14:03Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Improving Cancer Hallmark Classification with BERT-based Deep Learning
Approach [0.0]
本稿では,がん研究において重要な課題であるがんの徴候を正確に分類するための新しいアプローチを提案する。
提案手法は,様々なダウンストリームアプリケーションにおいて異常な性能を示すBERTアーキテクチャを用いている。
本研究の結果,本研究の精度は94.45%であり,本論文の報告によれば,少なくとも8.04%の有意な増加がみられた。
論文 参考訳(メタデータ) (2023-05-02T09:57:54Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。