論文の概要: What Patients Really Ask: Exploring the Effect of False Assumptions in Patient Information Seeking
- arxiv url: http://arxiv.org/abs/2601.15674v1
- Date: Thu, 22 Jan 2026 05:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.505765
- Title: What Patients Really Ask: Exploring the Effect of False Assumptions in Patient Information Seeking
- Title(参考訳): 患者が本当に問うこと : 患者情報検索における偽推定の影響を探る
- Authors: Raymond Xiong, Furong Jia, Lionel Wong, Monica Agrawal,
- Abstract要約: 患者は、医療関連質問に対する回答を求めるために、大きな言語モデル(LLM)をますます活用している。
われわれは、米国で処方された薬のトップ200に問い合わせることで、GoogleのPeople Ask機能からのデータを収集した。
収集された質問のかなりの部分は、誤った仮定と危険な意図を含んでいる。
- 参考スコア(独自算出の注目度): 5.012718216094781
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Patients are increasingly using large language models (LLMs) to seek answers to their healthcare-related questions. However, benchmarking efforts in LLMs for question answering often focus on medical exam questions, which differ significantly in style and content from the questions patients actually raise in real life. To bridge this gap, we sourced data from Google's People Also Ask feature by querying the top 200 prescribed medications in the United States, curating a dataset of medical questions people commonly ask. A considerable portion of the collected questions contains incorrect assumptions and dangerous intentions. We demonstrate that the emergence of these corrupted questions is not uniformly random and depends heavily on the degree of incorrectness in the history of questions that led to their appearance. Current LLMs that perform strongly on other benchmarks struggle to identify incorrect assumptions in everyday questions.
- Abstract(参考訳): 患者は、医療関連質問に対する回答を求めるために、大きな言語モデル(LLM)をますます活用している。
しかし, LLMにおける質問応答のベンチマークの取り組みは, 実生活における患者が実際に提起する質問のスタイルや内容とは大きく異なる, 医学的検査の質問に焦点をあてることが多かった。
このギャップを埋めるために、私たちはGoogleのPeople Ask機能から、米国内の処方薬のトップ200をクエリし、人々がよく尋ねる医療質問のデータセットをキュレートすることで、データをソースしました。
収集された質問のかなりの部分は、誤った仮定と危険な意図を含んでいる。
これらの崩壊した質問の出現は、一様ランダムではなく、その出現に繋がる質問の歴史における誤りの程度に大きく依存していることを示す。
他のベンチマークで強く動作する現在のLLMは、日々の質問で誤った仮定を特定するのに苦労しています。
関連論文リスト
- Can LLMs Ask Good Questions? [45.54763954234726]
大規模言語モデル(LLM)が生成する質問を文脈から評価する。
質問タイプ,質問長,コンテキストカバレッジ,回答可能性,不共通性,必要な回答長の6つの次元にわたる人間による質問と比較した。
論文 参考訳(メタデータ) (2025-01-07T03:21:17Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Benchmarking Large Language Models on Answering and Explaining Challenging Medical Questions [19.436999992810797]
JAMAクリニカルチャレンジとメドブルレットという2つの新しいデータセットを構築した。
JAMAクリニカルチャレンジは、挑戦的な臨床ケースに基づく質問から成り、メドブルレットはシミュレートされた臨床質問から成り立っている。
各種のプロンプトを用いて2つのデータセット上で7つのLSMを評価する。
論文 参考訳(メタデータ) (2024-02-28T05:44:41Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Can large language models reason about medical questions? [7.95779617839642]
実世界の難解な質問に対する回答と推論に,オープンソースモデルとクローズドモデルを適用することができるかを検討する。
我々は、MedQA-USMLE、MedMCQA、PubMedQAの3つの人気のある医療ベンチマークと複数のプロンプトシナリオに焦点を当てた。
生成されたCoTのエキスパートアノテーションに基づいて、InstructGPTは専門家の知識を読み、分析し、リコールすることができることがわかった。
論文 参考訳(メタデータ) (2022-07-17T11:24:44Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Effective Transfer Learning for Identifying Similar Questions: Matching
User Questions to COVID-19 FAQs [5.512295869673147]
医療質問応答対にニューラルネットワークを事前学習する2つの微調整アプローチが,医療質問類似性を決定するのに有用な中間課題であることを示す。
また、トレーニングされたモデルを使用して、ユーザの質問と新型コロナウイルス関連のFAQをマッチングする、現在稼働中のシステムについても説明する。
論文 参考訳(メタデータ) (2020-08-04T18:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。