論文の概要: Comparing Large Language Models and Traditional Machine Translation Tools for Translating Medical Consultation Summaries: A Pilot Study
- arxiv url: http://arxiv.org/abs/2504.16601v1
- Date: Wed, 23 Apr 2025 10:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:55:31.687586
- Title: Comparing Large Language Models and Traditional Machine Translation Tools for Translating Medical Consultation Summaries: A Pilot Study
- Title(参考訳): 大言語モデルと従来型機械翻訳ツールの比較 : 実験的検討
- Authors: Andy Li, Wei Zhou, Rashina Hoda, Chris Bain, Peter Poon,
- Abstract要約: 本研究では,大規模言語モデル(LLM)と従来の機械翻訳ツール(MT)が,医療相談要約を英語からアラビア語,中国語,ベトナム語に翻訳する方法について検討した。
その結果,従来型のMTツールの方が,特に複雑なテキストに対して高い性能を示した。
アラビア語の翻訳は、言語の形態によって複雑さが増した。
- 参考スコア(独自算出の注目度): 9.136745540182423
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study evaluates how well large language models (LLMs) and traditional machine translation (MT) tools translate medical consultation summaries from English into Arabic, Chinese, and Vietnamese. It assesses both patient, friendly and clinician, focused texts using standard automated metrics. Results showed that traditional MT tools generally performed better, especially for complex texts, while LLMs showed promise, particularly in Vietnamese and Chinese, when translating simpler summaries. Arabic translations improved with complexity due to the language's morphology. Overall, while LLMs offer contextual flexibility, they remain inconsistent, and current evaluation metrics fail to capture clinical relevance. The study highlights the need for domain-specific training, improved evaluation methods, and human oversight in medical translation.
- Abstract(参考訳): 本研究では,大規模言語モデル (LLM) と従来の機械翻訳ツール (MT) が,医療相談要約を英語からアラビア語,中国語,ベトナム語に翻訳する方法について検討した。
標準的な自動メトリクスを使用して、患者、フレンドリー、およびクリニックの両方に焦点を当てたテキストを評価する。
その結果、従来のMTツールは、特に複雑なテキストに対して、特にベトナム語と中国語で、より単純な要約を翻訳する際に、一般的により優れた性能を示した。
アラビア語の翻訳は、言語の形態によって複雑さが増した。
全体として、LLMは文脈的柔軟性を提供するが、それらは矛盾しておらず、現在の評価基準は臨床的関連性を捉えることができない。
この研究は、ドメイン固有のトレーニングの必要性、評価方法の改善、医療翻訳における人間の監督を強調している。
関連論文リスト
- MultiMed-ST: Large-scale Many-to-many Multilingual Medical Speech Translation [3.6818524036584686]
MultiMed-STは、5つの言語で全ての翻訳方向をまたがる医療領域のための大規模なSTデータセットである。
290,000のサンプルで、我々のデータセットは最大の医療機械翻訳(MT)データセットである。
実証的ベースライン,バイリンガル・マルチリンガル比較研究,エンドツーエンド比較研究,コードスウィッチ分析,量的品質的誤り分析など,ST研究における最も広範な分析研究について紹介する。
論文 参考訳(メタデータ) (2025-04-04T15:49:17Z) - On Creating an English-Thai Code-switched Machine Translation in Medical Domain [2.0737832185611524]
医療領域における機械翻訳(MT)は、医療の質の向上と医療知識の普及に重要な役割を果たしている。
英語とタイ語によるMT技術の進歩にもかかわらず、一般的なMTアプローチは、医学用語を正確に翻訳できないため、医療分野では不十分であることが多い。
我々の研究は翻訳精度の向上だけでなく、英語の医学用語の維持も優先している。
論文 参考訳(メタデータ) (2024-10-21T17:25:32Z) - LLMs-in-the-loop Part-1: Expert Small AI Models for Bio-Medical Text Translation [0.0]
本研究では,医療用テキストに最適化された教師ありニューラルマシン翻訳モデルを開発するために,新しい"LLMs-in-the-loop"アプローチを提案する。
6つの言語での独自の平行コーパスは、科学論文、人工的に生成された臨床文書、医療文書から編纂された。
MarianMTベースのモデルは、Google Translate、DeepL、GPT-4-Turboより優れている。
論文 参考訳(メタデータ) (2024-07-16T19:32:23Z) - Google Translate Error Analysis for Mental Healthcare Information:
Evaluating Accuracy, Comprehensibility, and Implications for Multilingual
Healthcare Communication [8.178490288773013]
本研究は, 英語からペルシア語, アラビア語, トルコ語, ルーマニア語, スペイン語への翻訳におけるGoogle Translateの利用について検討した。
対象言語の母語話者はGT翻訳を手動で評価し、医学用語の正確性、理解性、重要な構文・意味的誤りに焦点を当てた。
GT出力分析は、特にアラビア語、ルーマニア語、ペルシア語の医学用語を正確に翻訳する際の課題を明らかにした。
論文 参考訳(メタデータ) (2024-02-06T14:16:32Z) - Cross-lingual neural fuzzy matching for exploiting target-language
monolingual corpora in computer-aided translation [0.0]
本稿では,ドメイン内ターゲット言語(TL)モノリンガルコーパスの活用を目的とした,新しいニューラルアプローチを提案する。
本手法は,TL単言語コーパスから翻訳提案を検索するための言語間文の埋め込みと,後処理を推定するためのニューラルモデルに頼っている。
本稿では,これらの手法を4つの言語ペア上で自動評価することにより,TMベースのCAT環境におけるモノリンガルテキストの活用に成功していることを示す。
論文 参考訳(メタデータ) (2024-01-16T14:00:28Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - CMB: A Comprehensive Medical Benchmark in Chinese [67.69800156990952]
そこで我々は,中国語の包括的医療ベンチマークであるCMB(Comprehensive Medical Benchmark)を提案する。
伝統的な中国医学はこの評価に欠かせないものであるが、全体としては成り立たない。
われわれは,ChatGPT,GPT-4,中国専用LSM,医療分野に特化したLSMなど,いくつかの大規模LSMを評価した。
論文 参考訳(メタデータ) (2023-08-17T07:51:23Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Benchmarking Machine Translation with Cultural Awareness [50.183458829028226]
文化関連コンテンツの翻訳は、効果的な異文化間コミュニケーションに不可欠である。
多くの文化特化項目(CSI)は言語間の翻訳を欠いていることが多い。
この難しさは機械翻訳システムの文化的意識の分析を妨げる。
論文 参考訳(メタデータ) (2023-05-23T17:56:33Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Benchmarking Automated Clinical Language Simplification: Dataset,
Algorithm, and Evaluation [48.87254340298189]
我々はMedLaneという名の新しいデータセットを構築し、自動化された臨床言語簡易化手法の開発と評価を支援する。
我々は,人間のアノテーションの手順に従い,最先端のパフォーマンスを実現するDECLAREと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T06:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。