論文の概要: Health Text Simplification: An Annotated Corpus for Digestive Cancer
Education and Novel Strategies for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.15043v1
- Date: Fri, 26 Jan 2024 18:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 14:31:30.769514
- Title: Health Text Simplification: An Annotated Corpus for Digestive Cancer
Education and Novel Strategies for Reinforcement Learning
- Title(参考訳): 健康テキストの簡易化:消化器癌教育のための注釈コーパスと強化学習のための新しい戦略
- Authors: Md Mushfiqur Rahman, Mohammad Sabik Irbaz, Kai North, Michelle S.
Williams, Marcos Zampieri, Kevin Lybarger
- Abstract要約: 普及とリテラシーを高めるために、健康情報における高パフォーマンステキスト単純化モデルが不可欠である。
我々は,健康テキストの簡易化研究に適した,がん教育教材の並列コーパスであるSimpleDCを紹介する。
大規模言語モデル(LLM)に基づく単純化手法について検討し、微調整、強化学習(RL)、人間フィードバックによる強化学習(RLHF)、ドメイン適応、プロンプトベースアプローチについて検討する。
- 参考スコア(独自算出の注目度): 9.420133333364614
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Objective: The reading level of health educational materials significantly
influences information understandability and accessibility, particularly for
minoritized populations. Many patient educational resources surpass the reading
level and complexity of widely accepted standards. There is a critical need for
high-performing text simplification models in health information to enhance
dissemination and literacy. This need is particularly acute in cancer
education, where effective prevention and screening education can substantially
reduce morbidity and mortality.
Methods: We introduce Simplified Digestive Cancer (SimpleDC), a parallel
corpus of cancer education materials tailored for health text simplification
research. Utilizing SimpleDC alongside the existing Med-EASi corpus, we explore
Large Language Model (LLM)-based simplification methods, including fine-tuning,
reinforcement learning (RL), reinforcement learning with human feedback (RLHF),
domain adaptation, and prompt-based approaches. Our experimentation encompasses
Llama 2 and GPT-4. A novel RLHF reward function is introduced, featuring a
lightweight model adept at distinguishing between original and simplified
texts, thereby enhancing the model's effectiveness with unlabeled data.
Results: Fine-tuned Llama 2 models demonstrated high performance across
various metrics. Our innovative RLHF reward function surpassed existing RL text
simplification reward functions in effectiveness. The results underscore that
RL/RLHF can augment fine-tuning, facilitating model training on unlabeled text
and improving performance. Additionally, these methods effectively adapt
out-of-domain text simplification models to targeted domains.
- Abstract(参考訳): 目的: 健康教材の読解レベルは, 情報理解性とアクセシビリティ, 特にマイノリティー人口に多大な影響を与えている。
多くの患者教育資源は、広く受け入れられている標準の読解レベルと複雑さを上回っている。
普及とリテラシーを高めるために、健康情報における高パフォーマンステキスト単純化モデルが不可欠である。
この必要性は、がん教育において特に深刻であり、効果的な予防とスクリーニング教育は、致命率と死亡率を大幅に減らすことができる。
方法: 単純消化器癌 (SimpleDC) は, 健康テキストの簡易化研究に適したがん教材の並列コーパスである。
既存の med-easi コーパスと共に simpledc を利用することで,微調整,強化学習 (rl),人間フィードバックによる強化学習 (rlhf),ドメイン適応,プロンプトベースアプローチなど,大規模言語モデル (llm) に基づく単純化手法を検討する。
実験ではLlama 2とGPT-4を含む。
新しいrlhf報酬関数を導入し、オリジナルテキストと簡易テキストの区別に適した軽量モデルを特徴とし、ラベルなしデータによるモデルの有効性を高める。
結果: 微調整のLlama 2モデルは様々な指標で高い性能を示した。
我々の革新的なRLHF報酬関数は、既存のRLテキストの簡易化報酬関数をはるかに上回った。
その結果、rl/rlhfは微調整を強化でき、ラベルなしテキストのモデルトレーニングが容易になり、性能が向上する。
さらに、これらの手法はドメイン外のテキスト単純化モデルをターゲットドメインに効果的に適用する。
関連論文リスト
- Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - RAG-RLRC-LaySum at BioLaySumm: Integrating Retrieval-Augmented Generation and Readability Control for Layman Summarization of Biomedical Texts [23.48211785667272]
本稿では,RAG-RLRC-LaySumフレームワークについて紹介する。
RAG-RLRC-LaySumフレームワークは、科学的知識を効果的に民主化し、生物医学的な発見への公的な関与を高める。
論文 参考訳(メタデータ) (2024-05-21T20:03:40Z) - RLHF Deciphered: A Critical Analysis of Reinforcement Learning from Human Feedback for LLMs [49.386699863989335]
大きな言語モデル(LLM)を訓練し、人間の効果的なアシスタントとして機能させるには、慎重に検討する必要がある。
有望なアプローチとして、人間からのフィードバック(RLHF)からの強化学習がある。
本稿では、強化学習原理のレンズを通してRLHFを分析し、その基礎を理解する。
論文 参考訳(メタデータ) (2024-04-12T15:54:15Z) - Applying Large Language Models for Causal Structure Learning in Non
Small Cell Lung Cancer [8.248361703850774]
因果発見は、医療AI研究において重要な役割を担っている。
本稿では,大言語モデルを用いて,因果発見におけるエッジの方向性を決定する問題について検討する。
その結果,LLMは因果グラフのエッジの方向を正確に予測でき,既存の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T09:31:14Z) - Medical Text Simplification: Optimizing for Readability with
Unlikelihood Training and Reranked Beam Search Decoding [18.06012822620814]
テキストの単純化は、医学などの専門分野におけるコミュニケーションギャップを埋めるために、AIのますます有用な応用として現れてきた。
顕著な進歩にもかかわらず、医学的単純化の手法は、品質と多様性の低い生成されたテキストをもたらすことがある。
そこで本研究では,より単純な用語を生成するための新たな異義性損失と,シンプルさを最適化する再帰的ビーム探索復号法を提案する。
論文 参考訳(メタデータ) (2023-10-17T12:14:03Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Improving Cancer Hallmark Classification with BERT-based Deep Learning
Approach [0.0]
本稿では,がん研究において重要な課題であるがんの徴候を正確に分類するための新しいアプローチを提案する。
提案手法は,様々なダウンストリームアプリケーションにおいて異常な性能を示すBERTアーキテクチャを用いている。
本研究の結果,本研究の精度は94.45%であり,本論文の報告によれば,少なくとも8.04%の有意な増加がみられた。
論文 参考訳(メタデータ) (2023-05-02T09:57:54Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - A Systematic Approach to Featurization for Cancer Drug Sensitivity
Predictions with Deep Learning [49.86828302591469]
35,000以上のニューラルネットワークモデルをトレーニングし、一般的な成果化技術を駆使しています。
RNA-seqは128以上のサブセットであっても非常に冗長で情報的であることがわかった。
論文 参考訳(メタデータ) (2020-04-30T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。