論文の概要: Revealing Patient-Reported Experiences in Healthcare from Social Media
using the DAPMAV Framework
- arxiv url: http://arxiv.org/abs/2210.04232v1
- Date: Sun, 9 Oct 2022 11:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:34:39.654274
- Title: Revealing Patient-Reported Experiences in Healthcare from Social Media
using the DAPMAV Framework
- Title(参考訳): DAPMAVフレームワークを用いたソーシャル・メディアにおける患者の医療経験
- Authors: Curtis Murray, Lewis Mitchell, Jonathan Tuke, Mark Mackay
- Abstract要約: 本稿では,非技術領域の専門家に構造的アプローチを適用するためのDAPMAV(Design-Acquire-Process-Model-Analyse-Visualise)フレームワークを紹介する。
この枠組みを, /r/ProstateCancer による前立腺癌データのケーススタディに適用する。
- 参考スコア(独自算出の注目度): 0.11470070927586014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding patient experience in healthcare is increasingly important and
desired by medical professionals in a patient-centred care approach. Healthcare
discourse on social media presents an opportunity to gain a unique perspective
on patient-reported experiences, complementing traditional survey data. These
social media reports often appear as first-hand accounts of patients' journeys
through the healthcare system, whose details extend beyond the confines of
structured surveys and at a far larger scale than focus groups. However, in
contrast with the vast presence of patient-experience data on social media and
the potential benefits the data offers, it attracts comparatively little
research attention due to the technical proficiency required for text analysis.
In this paper, we introduce the Design-Acquire-Process-Model-Analyse-Visualise
(DAPMAV) framework to equip non-technical domain experts with a structured
approach that will enable them to capture patient-reported experiences from
social media data. We apply this framework in a case study on prostate cancer
data from /r/ProstateCancer, demonstrate the framework's value in capturing
specific aspects of patient concern (such as sexual dysfunction), provide an
overview of the discourse, and show narrative and emotional progression through
these stories. We anticipate this framework to apply to a wide variety of areas
in healthcare, including capturing and differentiating experiences across
minority groups, geographic boundaries, and types of illnesses.
- Abstract(参考訳): 医療における患者体験を理解することは、患者中心の医療アプローチにおいて、医療専門家にとってますます重要で望ましい。
ソーシャルメディア上での医療談話は、従来の調査データを補完して、患者が報告した体験に対するユニークな視点を得る機会を提供する。
これらのソーシャルメディアレポートは、患者の医療システムへの旅の直接の報告として現れることが多く、その詳細は、構造化された調査の範囲を超えて、フォーカスグループよりもはるかに大規模なものである。
しかし、ソーシャルメディア上での患者経験データの存在と、そのデータが提供する潜在的な利益とは対照的に、テキスト分析に必要な技術能力のため、比較的研究の注意を惹きつける。
本稿では,非技術領域の専門家に,ソーシャルメディアデータから患者に報告された経験を捉えるための構造化アプローチを提供するため,dapmav(design-acquire-process-model-analyse-visualise)フレームワークを提案する。
本稿では, /r/ProstateCancer による前立腺癌データのケーススタディにこの枠組みを適用し,患者の関心事(性機能障害など)の特定の側面を捉え,談話の概要を提供し,これらの物語を通して物語や感情の進行を示す。
このフレームワークは、少数グループ、地理的境界、病気の種類など、医療のさまざまな領域に適用できることを期待しています。
関連論文リスト
- ViKL: A Mammography Interpretation Framework via Multimodal Aggregation of Visual-knowledge-linguistic Features [54.37042005469384]
MVKLは,マルチビュー画像,詳細な表示,報告を含む最初のマルチモーダルマンモグラフィーデータセットである。
このデータセットに基づいて、教師なし事前学習のチャラリングタスクに焦点を当てる。
視覚,知識,言語機能を相乗化するフレームワークであるViKLを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:01:23Z) - A Comparative Study on Patient Language across Therapeutic Domains for Effective Patient Voice Classification in Online Health Discussions [0.48124799513933847]
本研究では,患者音声の正確な分類における言語的特徴の重要性を分析する。
我々は、類似した言語パターンと組み合わせたデータセットに基づいて事前学習した言語モデルを微調整し、高い精度で患者音声を自動分類した。
この話題の先駆的な研究として、ソーシャルメディアから真正の患者体験を抽出することに注力することは、医療基準の進歩に向けた重要なステップである。
論文 参考訳(メタデータ) (2024-07-23T15:51:46Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Are Generative AI systems Capable of Supporting Information Needs of
Patients? [4.485098382568721]
本研究は, 画像診断における患者情報への責任を負うことなく, 生成的視覚質問応答システムの有効性について検討する。
胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行した。
参加者と医療専門家の会話のテーマ分析を用いて,対話を通して一般的に発生するテーマを特定した。
我々は,放射線技師の反応に対して,最先端の2つの生成的視覚言語モデルを評価する。
論文 参考訳(メタデータ) (2024-01-31T23:24:37Z) - Yes, this is what I was looking for! Towards Multi-modal Medical
Consultation Concern Summary Generation [46.42604861624895]
マルチモーダル・メディカル・コンシューム・サマリ・ジェネレーションの新しい課題を提案する。
患者のジェスチャーや表情などの非言語的手がかりは、患者の懸念を正確に識別するのに役立つ。
マルチモーダル・メディカル・コンシューム・サマリー・ジェネレーション・コーパスを構築。
論文 参考訳(メタデータ) (2024-01-10T12:56:47Z) - Probabilistic emotion and sentiment modelling of patient-reported
experiences [0.04096453902709291]
本研究では,オンライン体験談話から患者感情をモデル化する新しい手法を提案する。
ケアオピニオンから患者が報告した経験を分析するために,メタデータネットワークトピックをモデル化する。
マルチラベル感情とバイナリ感情の両方を予測できる確率論的・文脈特異的感情推薦システムを開発した。
論文 参考訳(メタデータ) (2024-01-09T05:39:20Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - MedNgage: A Dataset for Understanding Engagement in Patient-Nurse
Conversations [4.847266237348932]
症状を効果的に管理する患者は、医療従事者との会話や介入において、より高いレベルのエンゲージメントを示すことが多い。
AIシステムは、患者と実践者との自然な会話におけるエンゲージメントを理解して、患者のケアにもっと貢献することが不可欠である。
本稿では,がん症状管理に関する患者と看護者の会話をまとめた新しいデータセット(MedNgage)を提案する。
論文 参考訳(メタデータ) (2023-05-31T16:06:07Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。