論文の概要: Improving Medical Dialogue Generation with Abstract Meaning
Representations
- arxiv url: http://arxiv.org/abs/2309.10608v1
- Date: Tue, 19 Sep 2023 13:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 14:26:03.830039
- Title: Improving Medical Dialogue Generation with Abstract Meaning
Representations
- Title(参考訳): 抽象的意味表現による医用対話生成の改善
- Authors: Bohao Yang, Chen Tang, Chenghua Lin
- Abstract要約: 医療対話生成は、患者への医療専門知識の普及を促進することで遠隔医療において重要な役割を担っている。
既存の研究は、テキストのセマンティクスを表現する能力に制限があるテキスト表現を取り入れることに焦点を当てている。
本稿では、抽象的意味表現(AMR)を用いて、言語構成員や医療機関の役割を記述したグラフィカルな表現を構築する。
- 参考スコア(独自算出の注目度): 26.97253577302195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Dialogue Generation serves a critical role in telemedicine by
facilitating the dissemination of medical expertise to patients. Existing
studies focus on incorporating textual representations, which have limited
their ability to represent the semantics of text, such as ignoring important
medical entities. To enhance the model's understanding of the textual semantics
and the medical knowledge including entities and relations, we introduce the
use of Abstract Meaning Representations (AMR) to construct graphical
representations that delineate the roles of language constituents and medical
entities within the dialogues. In this paper, We propose a novel framework that
models dialogues between patients and healthcare professionals using AMR
graphs, where the neural networks incorporate textual and graphical knowledge
with a dual attention mechanism. Experimental results show that our framework
outperforms strong baseline models in medical dialogue generation,
demonstrating the effectiveness of AMR graphs in enhancing the representations
of medical knowledge and logical relationships. Furthermore, to support future
research in this domain, we provide the corresponding source code at
https://github.com/Bernard-Yang/MedDiaAMR.
- Abstract(参考訳): 医療対話生成は、患者への医療専門知識の普及を促進することで遠隔医療において重要な役割を担っている。
既存の研究は、重要な医学的実体を無視するなど、テキストの意味論を表現する能力を制限したテキスト表現の導入に焦点を当てている。
テキスト意味論と,エンティティや関係を含む医療知識の理解を深めるために,対話における言語構成員や医療エンティティの役割を記述したグラフィカルな表現を構築するために抽象的意味表現(AMR)を導入する。
本稿では,amrグラフを用いて患者と医療従事者間の対話をモデル化する新しい枠組みを提案する。
実験の結果,本フレームワークは医療対話生成における強力なベースラインモデルよりも優れており,医療知識と論理関係の表現性向上におけるamrグラフの有効性が示された。
さらに、この領域における将来の研究をサポートするために、対応するソースコードをhttps://github.com/Bernard-Yang/MedDiaAMRで提供します。
関連論文リスト
- MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - ECAMP: Entity-centered Context-aware Medical Vision Language
Pre-training [22.383919107065484]
本稿では,エンティティ中心型医療ビジョン言語事前学習のための新しいフレームワークを提案する。
医療報告からエンティティ中心のコンテキストを抽出し、テキストモダリティをより効果的に管理する。
提案したマルチスケールコンテキスト融合設計は、粗い画像表現と細かな画像表現の両方のセマンティックな統合も改善する。
論文 参考訳(メタデータ) (2023-12-20T11:00:54Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - The Impact of ChatGPT and LLMs on Medical Imaging Stakeholders:
Perspectives and Use Cases [9.488544611843073]
本研究では,医療画像におけるOpenAI ChatGPTなどの大規模言語モデル(LLM)の変換可能性について検討する。
本稿では,LLMと医療画像ステークホルダーのより広範なエコシステムとの複雑な相互作用を示すための分析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-11T20:39:13Z) - Terminology-aware Medical Dialogue Generation [23.54754465832362]
医療対話生成は,医師と患者との対話の振り返りの履歴に応じて反応を生成することを目的としている。
オープンドメインの対話生成とは異なり、これは医療領域固有の背景知識を必要とする。
そこで本研究では,ドメイン固有語学を中心とした特徴を考慮し,医療対話の創出を改善する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-27T15:41:46Z) - Multi-Granularity Cross-modal Alignment for Generalized Medical Visual
Representation Learning [24.215619918283462]
本報告では, 医用画像の表現を直接学習するための新しい枠組みについて述べる。
本フレームワークは,医用画像と放射線学レポートの自然に現れる意味的対応を3段階に分けて活用する。
論文 参考訳(メタデータ) (2022-10-12T09:31:39Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - Cross-modal Memory Networks for Radiology Report Generation [30.13916304931662]
ラジオロジーレポート生成のためのエンコーダデコーダフレームワークを強化するために,クロスモーダルメモリネットワーク(CMN)を提案する。
本モデルでは,放射線画像やテキストからの情報の整合性が向上し,臨床指標の精度向上に寄与する。
論文 参考訳(メタデータ) (2022-04-28T02:32:53Z) - A Benchmark for Automatic Medical Consultation System: Frameworks, Tasks
and Datasets [70.32630628211803]
本稿では,医師と患者との対話理解とタスク指向インタラクションという,医療相談の自動化を支援する2つの枠組みを提案する。
マルチレベルな微粒なアノテーションを付加した新しい大規模医療対話データセットが導入された。
本稿では,各タスクに対するベンチマーク結果のセットを報告し,データセットのユーザビリティを示し,今後の研究のベースラインを設定する。
論文 参考訳(メタデータ) (2022-04-19T16:43:21Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。