論文の概要: Safer in Translation? Presupposition Robustness in Indic Languages
- arxiv url: http://arxiv.org/abs/2511.01360v1
- Date: Mon, 03 Nov 2025 09:08:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.191517
- Title: Safer in Translation? Presupposition Robustness in Indic Languages
- Title(参考訳): 翻訳におけるセーファー : 英語における前置ロバスト性
- Authors: Aadi Palnitkar, Arjun Suresh, Rishi Rajesh, Puneet Puli,
- Abstract要約: Cancer-Myth-Indicは、C cancer-Mythの500itemサブセットを翻訳して構築されたIndic言語ベンチマークである。
我々は,この前提条件下で,いくつかのポピュラーな大規模言語モデル (LLM) を評価する。
- 参考スコア(独自算出の注目度): 0.11289904494978283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly, more and more people are turning to large language models (LLMs) for healthcare advice and consultation, making it important to gauge the efficacy and accuracy of the responses of LLMs to such queries. While there are pre-existing medical benchmarks literature which seeks to accomplish this very task, these benchmarks are almost universally in English, which has led to a notable gap in existing literature pertaining to multilingual LLM evaluation. Within this work, we seek to aid in addressing this gap with Cancer-Myth-Indic, an Indic language benchmark built by translating a 500-item subset of Cancer-Myth, sampled evenly across its original categories, into five under-served but widely used languages from the subcontinent (500 per language; 2,500 translated items total). Native-speaker translators followed a style guide for preserving implicit presuppositions in translation; items feature false presuppositions relating to cancer. We evaluate several popular LLMs under this presupposition stress.
- Abstract(参考訳): 医療アドバイスや相談のための大規模言語モデル(LLM)がますます多くなり、このようなクエリに対するLLMの応答の有効性と正確性を評価することが重要になっている。
この課題を達成しようとする医学ベンチマークの文献は存在するが、これらのベンチマークはほとんど英語で書かれており、これは多言語LSM評価に関する既存の文献に顕著なギャップをもたらしている。
この研究の中で、我々は、500itemのがん神話のサブセットを、そのもともとのカテゴリで均等に分析し、サブコンチネントから5つの未使用言語(言語毎500、翻訳項目総数2,500)に翻訳することで、このギャップに対処することを模索している。
ネイティブスピーカー翻訳者は、翻訳における暗黙の前提を保存するためのスタイルガイドに従った。
我々は,この前提条件下でのLLMの評価を行った。
関連論文リスト
- Filling in the Clinical Gaps in Benchmark: Case for HealthBench for the Japanese medical system [5.7880565661958565]
本研究では,日本におけるHealthBenchの適用性について検討した。
日本語の資源は乏しく、翻訳された複数の質問から構成されることが多い。
論文 参考訳(メタデータ) (2025-09-22T07:36:12Z) - Multilingual LLM Prompting Strategies for Medical English-Vietnamese Machine Translation [7.238888652441979]
医療用英語-ベトナム語機械翻訳(En-Vi MT)は、ベトナムにおける医療アクセスとコミュニケーションに不可欠である。
我々は,MedEVデータセット上で6つの多言語LLM(0.5B-9Bパラメータ)のプロンプト戦略を評価する。
論文 参考訳(メタデータ) (2025-09-19T06:06:36Z) - Multi-OphthaLingua: A Multilingual Benchmark for Assessing and Debiasing LLM Ophthalmological QA in LMICs [3.1894617416005855]
大型言語モデル(LLM)は、様々な眼科手術を自動化するための有望なソリューションを提供する。
LLMは、自然言語の問合せタスクにおいて、様々な言語で顕著に異なる性能を示してきた。
本研究は,複数言語にまたがる質問を手作業でキュレートした,最初の多言語眼科的質問答えベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-18T20:18:03Z) - Low-Resource Machine Translation through Retrieval-Augmented LLM Prompting: A Study on the Mambai Language [1.1702440973773898]
本研究では,Timor-Lesteで話される低音源のオーストロネシア語であるMambaiへの英語翻訳における大規模言語モデルの利用について検討した。
提案手法は, 並列文と辞書エントリの戦略的な選択と, プロンプトのための手法である。
辞書をインプロンプトに含め,-IDFで検索した文とセマンティック埋め込みを混合することにより,翻訳品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-07T05:04:38Z) - Chain-of-Dictionary Prompting Elicits Translation in Large Language Models [100.47154959254937]
大規模言語モデル(LLM)は多言語ニューラルマシン翻訳(MNMT)において驚くほど優れた性能を示した
入力単語のサブセットに対する多言語辞書の連鎖による事前知識でLLMを拡張して翻訳能力を引き出す新しい方法であるCoDを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。