論文の概要: Global Readiness of Language Technology for Healthcare: What would it
Take to Combat the Next Pandemic?
- arxiv url: http://arxiv.org/abs/2204.02790v1
- Date: Wed, 6 Apr 2022 13:03:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 19:45:20.026992
- Title: Global Readiness of Language Technology for Healthcare: What would it
Take to Combat the Next Pandemic?
- Title(参考訳): 医療のための言語技術のグローバルな即応性:次のパンデミックと戦うために何が必要か?
- Authors: Ishani Mondal, Kabir Ahuja, Mohit Jain, Jacki O Neil, Kalika Bali,
Monojit Choudhury
- Abstract要約: 新型コロナウイルス(COVID-19)のパンデミックで、言語技術(LT)の最高と最悪の両方が生まれました
世界中の医療におけるLT、特に会話エージェントの状況はどうなっていますか?
次のパンデミックに先立ち、LTの世界的な準備が整うにはどうすればいいのか?
- 参考スコア(独自算出の注目度): 23.121910420726227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The COVID-19 pandemic has brought out both the best and worst of language
technology (LT). On one hand, conversational agents for information
dissemination and basic diagnosis have seen widespread use, and arguably, had
an important role in combating the pandemic. On the other hand, it has also
become clear that such technologies are readily available for a handful of
languages, and the vast majority of the global south is completely bereft of
these benefits. What is the state of LT, especially conversational agents, for
healthcare across the world's languages? And, what would it take to ensure
global readiness of LT before the next pandemic? In this paper, we try to
answer these questions through survey of existing literature and resources, as
well as through a rapid chatbot building exercise for 15 Asian and African
languages with varying amount of resource-availability. The study confirms the
pitiful state of LT even for languages with large speaker bases, such as
Sinhala and Hausa, and identifies the gaps that could help us prioritize
research and investment strategies in LT for healthcare.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミックは、最高の言語技術と最悪の言語技術の両方を生み出した。
一方で、情報伝達や基本的な診断のための会話エージェントが広く使われており、おそらくパンデミック対策において重要な役割を担っている。
一方で、こうした技術がいくつかの言語で容易に利用可能であることは明らかであり、世界南部の大多数はこれらの利点を完全に享受している。
世界中の医療におけるLT、特に会話エージェントの状況はどうなっていますか?
そして、次のパンデミックの前にLTの世界的な準備が整うには、何が必要だろうか?
本稿では,これらの質問に対して,既存の文献や資源の調査や,資源利用率の異なる15のアジア・アフリカの言語を対象としたチャットボット構築の迅速化を通じて回答する。
この研究は、SinhalaやHausaのような大きな話者ベースを持つ言語でさえLTの哀れな状態を確認し、LTにおける研究と投資戦略の優先順位付けに役立つギャップを特定する。
関連論文リスト
- ChiMed-GPT: A Chinese Medical Large Language Model with Full Training
Regime and Better Alignment to Human Preferences [55.42521181558716]
中国医学領域向けに設計された新しいベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、コンテキスト長を4,096トークンに拡大し、事前トレーニング、SFT、RLHFを含む総合的なトレーニング体制を実行している。
情報抽出,質問応答,対話生成などの実世界のタスクの評価は,一般的なドメインLLMよりもChiMed-GPTの方が優れた性能を示している。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z) - LLaVA-Med: Training a Large Language-and-Vision Assistant for
Biomedicine in One Day [85.19963303642427]
本稿では,バイオメディカルイメージのオープンな研究課題に答えられる視覚言語対話アシスタントを訓練するための費用効率のよいアプローチを提案する。
モデルはまず、フィギュア・キャプションのペアを使ってバイオメディカル・ボキャブラリをアライメントし、その後、オープンエンドの会話意味論を習得する。
これにより、バイオメディジンのための大規模言語と視覚アシスタントを15時間以内で(8つのA100で)訓練することができる。
論文 参考訳(メタデータ) (2023-06-01T16:50:07Z) - GenSpectrum Chat: Data Exploration in Public Health Using Large Language
Models [2.9823962001574187]
新型コロナウイルスのパンデミックは、疫学的データを容易にアクセスし、探索可能にすることの重要性を強調した。
我々は、GPT-4を基盤となる大規模言語モデル(LLM)として、SARS-CoV-2ゲノムシークエンシングデータを調べる「GenSpectrum Chat」を開発した。
論文 参考訳(メタデータ) (2023-05-23T08:43:43Z) - Multilingual Simplification of Medical Texts [49.469685530201716]
4つの言語で医療領域のための文章整列型多言語テキスト単純化データセットであるMultiCochraneを紹介する。
これらの言語にまたがる微調整およびゼロショットモデルの評価を行い,人間による評価と分析を行った。
モデルは、実行可能な単純化されたテキストを生成することができるが、このデータセットが扱う可能性のある、卓越した課題を特定する。
論文 参考訳(メタデータ) (2023-05-21T18:25:07Z) - Romanization-based Large-scale Adaptation of Multilingual Language
Models [124.57923286144515]
大規模多言語事前学習言語モデル (mPLMs) は,NLPにおける多言語間移動のデファクトステートとなっている。
我々は、mPLMをローマン化および非ロマン化した14の低リソース言語コーパスに適用するためのデータとパラメータ効率の戦略を多数検討し、比較した。
以上の結果から, UROMAN をベースとしたトランスリテラルは,多くの言語で高い性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:58:34Z) - Expanding Pretrained Models to Thousands More Languages via
Lexicon-based Adaptation [133.7313847857935]
我々の研究は、NLPメソッドが現在の技術で不足している何千もの言語にどのように適応できるかを強調した。
3つのタスクにまたがる19の非表現言語に対して、我々の手法は、それぞれ追加のモノリンガルテキストによる最大5点と15点の改善をもたらす。
論文 参考訳(メタデータ) (2022-03-17T16:48:22Z) - The Adoption of ICT Powered Healthcare Technologies towards Managing
Global Pandemics [1.7587442088965224]
本報告では,世界規模のパンデミック対策にICTヘルス戦略がいかに有効かについて,調査を行い,十分な知見を提供する。
本稿では,ICT を利用したパンデミックを世界規模のパンデミックに転換する過程において,パンデミック管理にどのように活用できるかを論じる。
論文 参考訳(メタデータ) (2020-09-12T03:21:09Z) - TICO-19: the Translation Initiative for Covid-19 [112.5601530395345]
COvid-19の翻訳イニシアチブ(TICO-19)は、テストおよび開発データを、35の異なる言語でAIおよびMT研究者に提供した。
同じデータが表現されているすべての言語に変換されるため、テストや開発は、セット内の任意の言語のペアリングに対して行うことができる。
論文 参考訳(メタデータ) (2020-07-03T16:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。