論文の概要: How people use Copilot for Health
- arxiv url: http://arxiv.org/abs/2604.15331v1
- Date: Mon, 09 Mar 2026 16:11:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-05-04 02:32:13.833619
- Title: How people use Copilot for Health
- Title(参考訳): 健康のためにCopilotを使う方法
- Authors: Beatriz Costa-Gomes, Pavel Tolmachev, Eloise Taysom, Viknesh Sounderajah, Hannah Richardson, Philipp Schoenegger, Xiaoxuan Liu, Matthew M Nour, Seth Spielman, Samuel F. Way, Yash Shah, Michael Bhaskar, Harsha Nori, Christopher Kelly, Peter Hames, Bay Gross, Mustafa Suleyman, Dominic King,
- Abstract要約: 2026年1月、Microsoft Copilotとの50万人以上の未確認健康関連会話を分析した。
我々は、ヘルスクエリの背後にある意図とトピックを特徴付け、これらのクエリが誰であるかを特定し、デバイスや時間によってどのように使用されるかを分析する。
これらのパターンは、プラットフォーム固有の設計、安全性の考慮、健康AIの開発に直接的な意味を持つ。
- 参考スコア(独自算出の注目度): 5.464549795520625
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We analyze over 500,000 de-identified health-related conversations with Microsoft Copilot from January 2026 to characterize what people ask conversational AI about health. We develop a hierarchical intent taxonomy of 12 primary categories using privacy-preserving LLM-based classification validated against expert human annotation, and apply LLM-driven topic-clustering for prevalent themes within each intent. Using this taxonomy, we characterize the intents and topics behind health queries, identify who these queries are about, and analyze how usage varies by device and time of day. Five findings stand out. First, nearly one in five conversations involve personal symptom assessment or condition discussion, and even the dominant general information category (40%) is concentrated on specific treatments and conditions, suggesting that this is a lower bound on personal health intent. Second, one in seven of these personal health queries concern someone other than the user, such as a child, a parent, a partner, suggesting that conversational AI can be a caregiving tool, not just a personal one. Third, personal queries about symptoms and emotional health queries increase markedly in the evening and nighttime hours, when traditional healthcare is most limited. Fourth, usage diverges sharply by device: mobile concentrates on personal health concerns, while desktop is dominated by professional and academic work. Fifth, a substantial share of queries focuses on navigating healthcare systems such as finding providers, and understanding insurance, highlighting friction in the delivery of existing healthcare. These patterns have direct implications for platform-specific design, safety considerations, and the responsible development of health AI.
- Abstract(参考訳): 2026年1月、Microsoft Copilotとの50万人以上の未確認健康関連会話を分析し、人々が健康について会話するAIを特徴づけた。
プライバシ保存型LLM分類を用いた12種類の主要カテゴリの階層的意図分類を,専門家のアノテーションに対して検証し,各意図のテーマに対してLLMによるトピッククラスタリングを適用した。
この分類法を用いて、ヘルスクエリの背後にある意図とトピックを特徴付け、これらのクエリが誰であるかを特定し、デバイスや時間によってどのように使用されるかを分析する。
5つの発見がある。
第一に、5人に1人近い会話は、個人の症状の評価や状態の議論を伴い、支配的な一般情報カテゴリー(40%)でさえ、特定の治療や状態に集中しており、これは個人の健康志向に縛られるものではないことを示唆している。
第2に、これらのパーソナルヘルスクエリの7分の1は、子供、親、パートナーなど、ユーザ以外の誰かに関するもので、会話型AIは、個人的なものだけでなく、ケアツールになり得ることを示唆している。
第3に、症状や感情的な健康に関する質問は、伝統的な医療が最も限られている夜間と夜間に顕著に増加する。
モバイルは個人の健康問題に集中し、デスクトップは専門的、学術的な仕事が支配している。
第5に、クエリのかなりの部分は、提供者を見つけること、保険の理解、既存の医療提供における摩擦の強調など、医療システムのナビゲートに重点を置いている。
これらのパターンは、プラットフォーム固有の設計、安全性の考慮、健康AIの開発に直接的な意味を持つ。
関連論文リスト
- LunaAI: A Polite and Fair Healthcare Guidance Chatbot [0.7696728525672148]
多くの既存のシステムは、患者の信頼を構築するのに不可欠な感情的知性、公平性、丁寧さに乏しい。
本研究では,医療用プロトタイプであるLunaAIを設計,評価することで,倫理的コミュニケーションの原則を統合するという課題に対処する。
論文 参考訳(メタデータ) (2026-01-12T13:44:00Z) - "What's Up, Doc?": Analyzing How Users Seek Health Information in Large-Scale Conversational AI Datasets [7.252397462273507]
HealthChat-11Kは、25万のユーザメッセージからなる1万1千の現実世界の会話のキュレートされたデータセットである。
我々の分析は、ユーザーが健康情報を求める方法と理由に関する洞察を明らかにする。
論文 参考訳(メタデータ) (2025-06-26T17:52:18Z) - The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) [0.0]
ChatGPT, Large Language Models (LLMs) は医療分野で大きな注目を集めている。
その潜在的な利点にもかかわらず、研究者は様々な倫理的影響を過小評価してきた。
本研究は, LLMの医療・医療への展開の現段階を取り巻く倫理的景観を地図化することを目的としている。
論文 参考訳(メタデータ) (2024-03-21T15:20:07Z) - Yes, this is what I was looking for! Towards Multi-modal Medical
Consultation Concern Summary Generation [46.42604861624895]
マルチモーダル・メディカル・コンシューム・サマリ・ジェネレーションの新しい課題を提案する。
患者のジェスチャーや表情などの非言語的手がかりは、患者の懸念を正確に識別するのに役立つ。
マルチモーダル・メディカル・コンシューム・サマリー・ジェネレーション・コーパスを構築。
論文 参考訳(メタデータ) (2024-01-10T12:56:47Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Multi-task Learning for Personal Health Mention Detection on Social
Media [70.23889100356091]
本研究では、マルチタスク学習フレームワークを用いて、利用可能な注釈付きデータを活用し、メインタスクのパフォーマンスを向上させる。
我々は、感情検出を補助タスクとして利用することで、感情情報を対象タスクに組み込むことに重点を置いている。
論文 参考訳(メタデータ) (2022-12-09T23:49:00Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。