論文の概要: ConVIScope: Visual Analytics for Exploring Patient Conversations
- arxiv url: http://arxiv.org/abs/2108.13514v1
- Date: Mon, 30 Aug 2021 20:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 06:05:04.164426
- Title: ConVIScope: Visual Analytics for Exploring Patient Conversations
- Title(参考訳): ConVIScope: 患者の会話を探索するビジュアル分析
- Authors: Raymond Li (1), Enamul Hoque (2), Giuseppe Carenini (1), Richard
Lester (3), Raymond Chau (3) ((1) Department of Computer Science, University
of British Columbia, (2) School of Information Technology, York University,
(3) Department of Medicine, University of British Columbia)
- Abstract要約: 本稿では,対話型ビジュアライゼーションと自然言語処理を密に統合した視覚テキスト分析システムであるConVIScopeについて述べる。
6つのドメインの専門家によるケーススタディでは、ConVIScopeの潜在的有用性を示し、さらなる発展のための教訓を明らかにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of text messaging for mobile health is generating a large
amount of patient-doctor conversations that can be extremely valuable to health
care professionals. We present ConVIScope, a visual text analytic system that
tightly integrates interactive visualization with natural language processing
in analyzing patient-doctor conversations. ConVIScope was developed in
collaboration with healthcare professionals following a user-centered iterative
design. Case studies with six domain experts suggest the potential utility of
ConVIScope and reveal lessons for further developments.
- Abstract(参考訳): モバイル健康のためのテキストメッセージングの普及は、医療専門家にとって非常に価値のある患者と医師の会話を大量に生み出している。
本稿では,対話型ビジュアライゼーションと自然言語処理を密に統合した視覚テキスト分析システムConVIScopeについて述べる。
ConVIScopeは、ユーザー中心の反復設計の後、医療専門家と共同で開発された。
6つのドメインの専門家によるケーススタディでは、ConVIScopeの潜在的有用性を示し、さらなる発展のための教訓を明らかにしている。
関連論文リスト
- Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Benchmarking Large Language Models on Communicative Medical Coaching: a Novel System and Dataset [26.504409173684653]
患者相談におけるコミュニケーションスキルの実践を支援するための,人間とAIの協調的枠組みであるChatCoachを紹介する。
ChatCoachは、医療学習者が患者エージェントと対話できるシミュレートされた環境を提供し、コーチエージェントは即時かつ構造化されたフィードバックを提供する。
我々はChatCoachフレームワーク内で、コミュニケーション型医療コーチングタスクにおいて、LLM(Large Language Models)を評価するためのデータセットを開発した。
論文 参考訳(メタデータ) (2024-02-08T10:32:06Z) - Evaluating Embeddings for One-Shot Classification of Doctor-AI
Consultations [44.756632264140656]
本研究では、最先端の埋め込みとワンショット分類システムを用いて、博士書きとAI生成のテキストをどのように分類するかを検討する。
我々は,単語の袋,文字n-gram,Word2Vec,GloVe,fastText,GPT2の埋め込みなどの埋め込みを解析する。
その結果、埋め込みはテキストからセマンティックな特徴を信頼性と適応性でキャプチャできることがわかった。
論文 参考訳(メタデータ) (2024-02-06T22:24:56Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - The Impact of ChatGPT and LLMs on Medical Imaging Stakeholders:
Perspectives and Use Cases [9.488544611843073]
本研究では,医療画像におけるOpenAI ChatGPTなどの大規模言語モデル(LLM)の変換可能性について検討する。
本稿では,LLMと医療画像ステークホルダーのより広範なエコシステムとの複雑な相互作用を示すための分析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-11T20:39:13Z) - Revealing Patient-Reported Experiences in Healthcare from Social Media
using the DAPMAV Framework [0.04096453902709291]
本稿では,DAPMAV(Design-Acquire-Process-Model-Analyse-Visualise)フレームワークを紹介し,ソーシャルメディアデータから患者に報告された経験を捉える手法とアプローチを提案する。
この枠組みを, /r/ProstateCancer による前立腺癌データのケーススタディに適用する。
論文 参考訳(メタデータ) (2022-10-09T11:38:41Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。