論文の概要: LingYi: Medical Conversational Question Answering System based on
Multi-modal Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2204.09220v1
- Date: Wed, 20 Apr 2022 04:41:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:30:54.550951
- Title: LingYi: Medical Conversational Question Answering System based on
Multi-modal Knowledge Graphs
- Title(参考訳): LingYi:マルチモーダル知識グラフに基づく医療会話質問応答システム
- Authors: Fei Xia, Bin Li, Yixuan Weng, Shizhu He, Kang Liu, Bin Sun, Shutao Li
and Jun Zhao
- Abstract要約: 本稿では,マルチモーダル知識グラフに基づくCQAシステム,すなわち「LingYi」を提案する。
本システムでは,医用トリアージ,コンサルテーション,画像・テキスト・ドラッグ・レコメンデーション,記録などの医療行為を自動で行う。
- 参考スコア(独自算出の注目度): 35.55690461944328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The medical conversational system can relieve the burden of doctors and
improve the efficiency of healthcare, especially during the pandemic. This
paper presents a medical conversational question answering (CQA) system based
on the multi-modal knowledge graph, namely "LingYi", which is designed as a
pipeline framework to maintain high flexibility. Our system utilizes automated
medical procedures including medical triage, consultation, image-text drug
recommendation and record. To conduct knowledge-grounded dialogues with
patients, we first construct a Chinese Medical Multi-Modal Knowledge Graph
(CM3KG) and collect a large-scale Chinese Medical CQA (CMCQA) dataset. Compared
with the other existing medical question-answering systems, our system adopts
several state-of-the-art technologies including medical entity disambiguation
and medical dialogue generation, which is more friendly to provide medical
services to patients. In addition, we have open-sourced our codes which contain
back-end models and front-end web pages at https://github.com/WENGSYX/LingYi.
The datasets including CM3KG at https://github.com/WENGSYX/CM3KG and CMCQA at
https://github.com/WENGSYX/CMCQA are also released to further promote future
research.
- Abstract(参考訳): 医療対話システムは、特にパンデミック時の医師の負担を軽減し、医療の効率を向上させることができる。
本稿では,マルチモーダル知識グラフに基づく医療会話型質問応答システム(CQA)について述べる。
本システムでは,医用トリアージ,コンサルテーション,画像・テキスト・ドラッグ・レコメンデーション,記録などの自動医療手順を利用する。
患者と知識接地対話を行うため,まず中国医学多様知識グラフ (cm3kg) を構築し,大規模中国医学cqa (cmcqa) データセットを収集した。
既存の医療質問応答システムと比較すると,医療機関の曖昧さや医療対話生成などの最先端技術が採用されており,患者に医療サービスを提供しやすくなっている。
さらに、バックエンドモデルとフロントエンドのWebページを含むコードをhttps://github.com/WENGSYX/LingYi.comでオープンソース化しました。
CM3KG at https://github.com/WENGSYX/CM3KG や CMCQA at https://github.com/WENGSYX/CMCQA などのデータセットもリリースされ、今後の研究をさらに促進している。
関連論文リスト
- MediFact at MEDIQA-M3G 2024: Medical Question Answering in Dermatology with Multimodal Learning [0.0]
本稿では,オープンエンド医療質問応答(QA)のための弱教師付き学習アプローチを提案することによって,従来の手法の限界に対処する。
本システムは,VGG16-CNN-SVMモデルを用いて,利用可能なMEDIQA-M3G画像を利用する。
この研究は、医療QA研究を前進させ、臨床意思決定支援システムへの道を切り開き、最終的に医療提供を改善する。
論文 参考訳(メタデータ) (2024-04-27T20:03:47Z) - MedKP: Medical Dialogue with Knowledge Enhancement and Clinical Pathway
Encoding [48.348511646407026]
本稿では,知識向上と臨床パスウェイ符号化フレームワークを用いた医療対話について紹介する。
このフレームワークは、医療知識グラフを介して外部知識増強モジュールと、医療機関および医師の行動を介して、内部臨床経路をコードする。
論文 参考訳(メタデータ) (2024-03-11T10:57:45Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - MedSumm: A Multimodal Approach to Summarizing Code-Mixed Hindi-English
Clinical Queries [16.101969130235055]
本稿では,Multimodal Medical Codemixed Question Summarization MMCQSデータセットを紹介する。
このデータセットは、ヒンディー語と英語の混成医療クエリと視覚支援を組み合わせたものだ。
データセット、コード、トレーニング済みのモデルを公開します。
論文 参考訳(メタデータ) (2024-01-03T07:58:25Z) - MedChatZH: a Better Medical Adviser Learns from Better Instructions [11.08819869122466]
MedChatZHは中国の伝統的な医学的QAに特化して設計された対話モデルである。
我々のモデルは、中国の伝統医学書に事前学習され、慎重に訓練された医学教育データセットで微調整される。
現実世界の医療対話データセットでは、いくつかの確固たるベースラインを上回ります。
論文 参考訳(メタデータ) (2023-09-03T08:08:15Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - CDialog: A Multi-turn Covid-19 Conversation Dataset for Entity-Aware
Dialog Generation [18.047064216849204]
われわれは,CDialog と命名された Covid-19 病に関連する高品質な医療用ダイアログデータセットを公表した。
本稿では,CDialogデータセットに基づく新しい医用ダイアログシステムを提案する。
論文 参考訳(メタデータ) (2022-11-16T11:07:34Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。