論文の概要: Multilingual Medical Question Answering and Information Retrieval for
Rural Health Intelligence Access
- arxiv url: http://arxiv.org/abs/2106.01251v1
- Date: Wed, 2 Jun 2021 16:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 19:00:20.219074
- Title: Multilingual Medical Question Answering and Information Retrieval for
Rural Health Intelligence Access
- Title(参考訳): 農村保健情報アクセスのための多言語医療質問応答と情報検索
- Authors: Vishal Vinod, Susmit Agrawal, Vipul Gaurav, Pallavi R, Savita
Choudhary
- Abstract要約: いくつかの発展途上国の農村部では、高品質な医療、医療インフラ、専門的診断へのアクセスはほとんど利用できない。
このような医療アクセスの欠如、患者の以前の健康記録の欠如、および先住民語での情報の置換によるいくつかの死を、容易に防ぐことができる。
本稿では,機械学習とNLP(Natural Language Processing)技術における現象の進展を利用して,低リソース・多言語・予備的ファーストポイント・オブ・コンタクト・メディカルアシスタントを設計するアプローチについて述べる。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In rural regions of several developing countries, access to quality
healthcare, medical infrastructure, and professional diagnosis is largely
unavailable. Many of these regions are gradually gaining access to internet
infrastructure, although not with a strong enough connection to allow for
sustained communication with a medical practitioner. Several deaths resulting
from this lack of medical access, absence of patient's previous health records,
and the unavailability of information in indigenous languages can be easily
prevented. In this paper, we describe an approach leveraging the phenomenal
progress in Machine Learning and NLP (Natural Language Processing) techniques
to design a model that is low-resource, multilingual, and a preliminary
first-point-of-contact medical assistant. Our contribution includes defining
the NLP pipeline required for named-entity-recognition, language-agnostic
sentence embedding, natural language translation, information retrieval,
question answering, and generative pre-training for final query processing. We
obtain promising results for this pipeline and preliminary results for EHR
(Electronic Health Record) analysis with text summarization for medical
practitioners to peruse for their diagnosis. Through this NLP pipeline, we aim
to provide preliminary medical information to the user and do not claim to
supplant diagnosis from qualified medical practitioners. Using the input from
subject matter experts, we have compiled a large corpus to pre-train and
fine-tune our BioBERT based NLP model for the specific tasks. We expect recent
advances in NLP architectures, several of which are efficient and
privacy-preserving models, to further the impact of our solution and improve on
individual task performance.
- Abstract(参考訳): いくつかの発展途上国の農村地域では、質の高い医療、医療インフラ、専門的な診断へのアクセスはほとんど利用できない。
これらの地域の多くは徐々にインターネットインフラにアクセスし始めているが、医療従事者との持続的なコミュニケーションを可能にする十分な接続を持っていない。
この医療アクセスの欠如、患者の以前の健康記録の欠如、先住民族の言語における情報の入手不能などによるいくつかの死亡は容易に防止できる。
本稿では,機械学習とNLP(Natural Language Processing)技術の驚異的な進歩を生かして,低リソース,多言語,医用予備的な一対一の医療アシスタントを設計するアプローチについて述べる。
我々の貢献には、名前付き認識に必要なNLPパイプラインの定義、言語に依存しない文の埋め込み、自然言語翻訳、情報検索、質問応答、最終クエリ処理のための生成事前学習が含まれる。
本パイプラインの有望な結果とEHR(Electronic Health Record)解析の予備的結果を得た。
このNLPパイプラインを通じて,患者に予備医療情報を提供することを目標とし,認定医の診断に取って代わるものではない。
対象分野の専門家からの入力を用いて,BioBERTをベースとしたNLPモデルを事前学習・微調整するための大規模なコーパスを作成した。
我々はNLPアーキテクチャの最近の進歩を期待し、その一部は効率的でプライバシ保護のモデルであり、ソリューションのさらなる影響と個々のタスクパフォーマンスの改善を期待する。
関連論文リスト
- Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Medical Vision Language Pretraining: A survey [8.393439175704124]
医療ビジョン言語事前訓練は、医療領域におけるラベル付きデータの不足に対する有望な解決策である。
自己教師付き学習を通じてペア/アンペアの視覚とテキストデータセットを活用することで、モデルは膨大な知識を取得し、堅牢な特徴表現を学ぶように訓練することができる。
論文 参考訳(メタデータ) (2023-12-11T09:14:13Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Leveraging A Medical Knowledge Graph into Large Language Models for
Diagnosis Prediction [7.5569033426158585]
自動診断におけるLarge Language Models (LLMs) の習熟度を高めるための革新的なアプローチを提案する。
我々は,国立医科大学統一医療言語システム(UMLS)からKGを抽出した。
我々のアプローチは説明可能な診断経路を提供し、AIによる診断決定支援システムの実現に近づいている。
論文 参考訳(メタデータ) (2023-08-28T06:05:18Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - DR.BENCH: Diagnostic Reasoning Benchmark for Clinical Natural Language
Processing [5.022185333260402]
診断推論ベンチマーク(DR.BENCH)は臨床診断推論能力を持つcNLPモデルの開発と評価のための新しいベンチマークである。
DR.BENCHは、訓練済みの言語モデルを評価するための自然言語生成フレームワークとして設計された最初の臨床スイートである。
論文 参考訳(メタデータ) (2022-09-29T16:05:53Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Neural Natural Language Processing for Unstructured Data in Electronic
Health Records: a Review [4.454501609622817]
EHRに格納されている情報の約半数は、構造化されていないテキストの形式である。
自然言語処理への深層学習アプローチは、かなりの進歩を遂げた。
タスクの幅広い範囲、すなわち分類と予測、単語の埋め込み、抽出、生成、その他のトピックに焦点を当てる。
論文 参考訳(メタデータ) (2021-07-07T01:50:02Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - MeDAL: Medical Abbreviation Disambiguation Dataset for Natural Language
Understanding Pretraining [5.807159674193696]
略語用大容量医療用テキストデータセットであるMeDALについて述べる。
このデータセット上で共通アーキテクチャのモデルをいくつか事前トレーニングし,その事前トレーニングが下流医療タスクの微調整時のパフォーマンス向上と収束速度の向上につながることを実証的に示した。
論文 参考訳(メタデータ) (2020-12-27T17:17:39Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。