論文の概要: Toward Improving Health Literacy in Patient Education Materials with
Neural Machine Translation Models
- arxiv url: http://arxiv.org/abs/2209.06723v1
- Date: Wed, 14 Sep 2022 15:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:20:43.732875
- Title: Toward Improving Health Literacy in Patient Education Materials with
Neural Machine Translation Models
- Title(参考訳): ニューラルマシン翻訳モデルを用いた患者教材の健康リテラシー向上に向けて
- Authors: David Oniani, Sreekanth Sreekumar, Renuk DeAlmeida, Dinuk DeAlmeida,
Vivian Hui, Young Ji Lee, Yiye Zhang, Leming Zhou, Yanshan Wang
- Abstract要約: 健康リテラシーの低い人は、通常、診察後指示に従って処方薬を使用するなど、健康情報を理解するのに苦労する。
本稿では, 自然言語処理技術を活用して, 文中のイルミネーション言語を自動的に翻訳することで, 患者教育教材の健康リテラシーを向上させることを提案する。
私たちは、銀標準トレーニングデータセットと金標準テストデータセットを使用して、最先端のニューラルネットワーク翻訳(NMT)モデルをトレーニングし、テストしました。
- 参考スコア(独自算出の注目度): 4.402142901902557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Health literacy is the central focus of Healthy People 2030, the fifth
iteration of the U.S. national goals and objectives. People with low health
literacy usually have trouble understanding health information, following
post-visit instructions, and using prescriptions, which results in worse health
outcomes and serious health disparities. In this study, we propose to leverage
natural language processing techniques to improve health literacy in patient
education materials by automatically translating illiterate languages in a
given sentence. We scraped patient education materials from four online health
information websites: MedlinePlus.gov, Drugs.com, Mayoclinic.org and
Reddit.com. We trained and tested the state-of-the-art neural machine
translation (NMT) models on a silver standard training dataset and a gold
standard testing dataset, respectively. The experimental results showed that
the Bidirectional Long Short-Term Memory (BiLSTM) NMT model outperformed
Bidirectional Encoder Representations from Transformers (BERT)-based NMT
models. We also verified the effectiveness of NMT models in translating health
illiterate languages by comparing the ratio of health illiterate language in
the sentence. The proposed NMT models were able to identify the correct
complicated words and simplify into layman language while at the same time the
models suffer from sentence completeness, fluency, readability, and have
difficulty in translating certain medical terms.
- Abstract(参考訳): 健康リテラシー(Health literacy)は、2030年のアメリカ国民の目標と目標の5回目の反復である。
健康リテラシーが低い人は、通常、健康情報を理解するのに苦労し、訪問後の指示に従い、処方薬を使用することで、健康状態が悪化し、深刻な健康格差が生じる。
そこで本研究では,自然言語処理手法を活用し,与えられた文中の発音言語を自動翻訳することにより,患者教育教材の健康リテラシーを向上させることを提案する。
MedlinePlus.gov, Drugs.com, Mayoclinic.org, Reddit.comの4つのオンライン健康情報サイトから患者教育資料を抽出した。
我々は,銀標準トレーニングデータセットと金標準テストデータセットを用いて,最先端のニューラルネットワーク翻訳(NMT)モデルをそれぞれトレーニングし,テストした。
実験結果から, Bidirectional Long Short-Term Memory (BiLSTM) NMTモデルは, 変換器 (BERT) を用いたNMTモデルよりも優れていた。
また, 文中の健康照明言語の割合を比較することで, 健康照明言語の翻訳におけるNMTモデルの有効性を検証した。
提案するnmtモデルは, 正しい複雑な単語を識別し, レイマン語に簡略化すると同時に, 文完全性, フルエンシー, 可読性, 特定の医学用語の翻訳が困難であった。
関連論文リスト
- On Creating an English-Thai Code-switched Machine Translation in Medical Domain [2.0737832185611524]
医療領域における機械翻訳(MT)は、医療の質の向上と医療知識の普及に重要な役割を果たしている。
英語とタイ語によるMT技術の進歩にもかかわらず、一般的なMTアプローチは、医学用語を正確に翻訳できないため、医療分野では不十分であることが多い。
我々の研究は翻訳精度の向上だけでなく、英語の医学用語の維持も優先している。
論文 参考訳(メタデータ) (2024-10-21T17:25:32Z) - Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context Learning with Large Language Model [3.3590922002216193]
モデルに依存しないメタラーニングと,このギャップに対処するために大規模言語モデル(LLM)を活用する。
まず,自己超越型メタラーニングモデルを適用し,迅速な適応と言語間移動のためのモデル初期化を改良する。
並行して、LLMのインコンテキスト学習機能を用いて、スワヒリのメンタルヘルス予測タスクにおけるパフォーマンスの精度を評価する。
論文 参考訳(メタデータ) (2024-04-13T17:11:35Z) - Importance-Aware Data Augmentation for Document-Level Neural Machine
Translation [51.74178767827934]
ドキュメントレベルのニューラルマシン翻訳(DocNMT)は、一貫性と結合性の両方を持つ翻訳を生成することを目的としている。
長い入力長とトレーニングデータの可用性が限られているため、DocNMTはデータスパシティーの課題に直面していることが多い。
本稿では,隠れ状態のノルムとトレーニング勾配から推定したトークン重要度情報に基づいてトレーニングデータを拡張するDocNMTのための新しいIADAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-27T09:27:47Z) - Qilin-Med-VL: Towards Chinese Large Vision-Language Model for General
Healthcare [14.646414629627001]
本研究は,テキストデータと視覚データの分析を統合するために設計された,中国初の大規模視覚言語モデルであるQilin-Med-VLを紹介する。
また,100万以上の画像テキストペアからなるデータセットであるChiMed-VLもリリースしました。
論文 参考訳(メタデータ) (2023-10-27T08:05:21Z) - Code-Switching with Word Senses for Pretraining in Neural Machine
Translation [107.23743153715799]
ニューラルネットワーク翻訳のための単語センス事前学習(WSP-NMT)について紹介する。
WSP-NMTは、知識ベースからの単語感覚情報を活用した多言語NMTモデルの事前学習のためのエンドツーエンドアプローチである。
実験の結果,全体の翻訳品質が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-21T16:13:01Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Improving the Lexical Ability of Pretrained Language Models for
Unsupervised Neural Machine Translation [127.81351683335143]
クロスリンガルプリトレーニングは、2つの言語の語彙的表現と高レベル表現を整列させるモデルを必要とする。
これまでの研究では、これは表現が十分に整合していないためです。
本稿では,語彙レベルの情報で事前学習するバイリンガルマスク言語モデルを,型レベルのクロスリンガルサブワード埋め込みを用いて強化する。
論文 参考訳(メタデータ) (2021-03-18T21:17:58Z) - Leveraging Monolingual Data with Self-Supervision for Multilingual
Neural Machine Translation [54.52971020087777]
モノリンガルデータを使用することで、マルチリンガルモデルにおける低リソース言語の翻訳品質が大幅に向上する。
自己監督は多言語モデルのゼロショット翻訳品質を改善する。
並列データやバックトランスレーションなしで、ro-en翻訳で最大33のBLEUを得る。
論文 参考訳(メタデータ) (2020-05-11T00:20:33Z) - It's Easier to Translate out of English than into it: Measuring Neural
Translation Difficulty by Cross-Mutual Information [90.35685796083563]
クロスミューチュアル情報(英: Cross-mutual information、XMI)は、機械翻訳の難易度に関する非対称情報理論の指標である。
XMIは、ほとんどのニューラルマシン翻訳モデルの確率的性質を利用する。
本稿では,現代ニューラル翻訳システムを用いた言語間翻訳の難易度に関する最初の体系的および制御的な研究について述べる。
論文 参考訳(メタデータ) (2020-05-05T17:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。